├── dc1 ├── osm50.md ├── osm52.md └── osm51.md ├── th3 ├── osm37.md ├── osm35.md ├── osm34.md ├── osm32.md ├── osm36.md └── osm33.md ├── ovh ├── osm25.md └── osm26.md ├── moji └── osm42.md ├── free ├── osm14.md └── osm12.md ├── cquest ├── osm13.md └── osm11.md ├── LICENSE ├── README.md └── paulla └── osm29.md /dc1/osm50.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm50 (serveurs de backup DC1) 2 | 3 | ## 2025-09-16 4 | 5 | Mise à jour Proxmox 9 6 | 7 | ## 2025-05-06 8 | 9 | Installation du serveur dans la baie: 10 | - Dell R510 11 | - 48 Go de RAM 12 | - 6 disques SAS de 2To 13 | - 1 SSD SATA 100Go 14 | -------------------------------------------------------------------------------- /th3/osm37.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm37 (serveuur Panoramax) 2 | 3 | ## 2025-05-06 4 | 5 | Ajout de 12 disques de 16To dans la baie de stockage 6 | - Test SMART long OK pour tous 7 | - Reformatage en 4096 octets (suppression du "Type 2 protection" qui posait problème avec ZFS) 8 | 9 | Les disques sont en test sur un pool séparé "test". 10 | -------------------------------------------------------------------------------- /dc1/osm52.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm52 (serveurs de backup DC1) 2 | 3 | ## 2025-07-05 4 | 5 | Configuration ARC ZFS à 16Go 6 | 7 | ## 2025-06-29 - cquest 8 | 9 | Installation du serveur dans la baie: 10 | - Fujitsu CX2550M1 11 | - Xéon E5-2680v3 12 | - 256Go de RAM 13 | - SSD 3.8To NVMe (sur carte PCIe) 14 | - 2 x SSD 1.9To SATA (en baie 2.5" avant) 15 | -------------------------------------------------------------------------------- /th3/osm35.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm35 2 | 3 | ## 2025-12-10 - cquest 4 | 5 | Mise à jour en proxmox 9 6 | 7 | ## 2025-06-22 - cquest 8 | 9 | Problèmes sur le SSD NVMe qui lorsqu'il est trop sollicité en écriture fait rebooter le serveur. 10 | Aucune trace exploitable dans syslog. 11 | 12 | ## 2024-12-12 - cquest 13 | 14 | Mise à jour proxmox 8.3.1 faite et reboot. 15 | -------------------------------------------------------------------------------- /dc1/osm51.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm51 (serveurs de backup DC1) 2 | 3 | ## 2025-09-16 4 | 5 | Mise à jour Proxmox 9 6 | 7 | ## 2025-07-05 8 | 9 | Configuration ARC ZFS à 16Go 10 | 11 | ## 2025-06-29 - cquest 12 | 13 | Installation du serveur dans la baie: 14 | - Fujitsu CX2550M1 15 | - Xéon E5-2680v3 16 | - 256Go de RAM 17 | - SSD 3.8To NVMe (sur carte PCIe) 18 | - 2 x SSD 1.9To SATA (en baie 2.5" avant) 19 | -------------------------------------------------------------------------------- /ovh/osm25.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm25 2 | 3 | **Serveur toujours indisponible** 4 | 5 | # 2023-07-13 - OVH 6 | 7 | Changement du SSD défectueux, serveur remis en mode rescue 8 | 9 | # 2023-07-14 - cquest 10 | 11 | OVH semble avoir changé la config de la carte RAID du serveur, qui n'est plus en RAID5 mais RAID0 (mirror). 12 | J'ai envoyé un message pour qu'ils rectifient car je n'ai pas réussit à le faire en IPMI moi même. 13 | -------------------------------------------------------------------------------- /moji/osm42.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm42 2 | 3 | ## 2025-06-25 - jocelyn 4 | 5 | Remplissage du zfs root, impactant peertube, et le host lui-même, plus accessible sur proxmox. 6 | Libération de place en: 7 | - utilisant temporairement le subvol reservation 8 | - déplaçant des réplications d’autres lxc vers d’autres hosts que osm42 (100G de libéré) 9 | Après redémarrage du host, proxmox est reparti correctement. 10 | 11 | Pour éviter tout souci sur le root plein dans le futur, j’ai mis une réservation de 15G sur tous les hosts de moji. 12 | -------------------------------------------------------------------------------- /free/osm14.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm14 2 | 3 | ## 2025-11-21 - cquest 4 | 5 | Le SSD NVMe a été libéré, ajouté en miroir sur le pool ssd-zfs pour redondance avec le SSD SATA qui semble toujours bien fonctionner. 6 | 7 | ## 2023-07-16 - cquest 8 | 9 | SSD reçu. 10 | 11 | Il faut maintenant planifier une intervention chez free à Bezons peut être combinée avec Open Food Facts (un serveur à upgrader). 12 | 13 | ## 2023-07-14 - cquest 14 | 15 | Le SSD de 2To SATA d'osm14 n'a plus que 10% d'espérance de vie, soit 7 mois vu l'usage actuel. 16 | 17 | SSD de remplacement de 4To commandé. 18 | 19 | -------------------------------------------------------------------------------- /ovh/osm26.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm26 2 | 3 | # 2023-08-13 - OVH 4 | 5 | Blocage des emails par OVH, suite à détection de spam, surement sur liste.openstreetmap.fr 6 | 7 | # 2023-10-08 - jocelyn 8 | 9 | Application de la modif de @anayrat pour la config du kernel (swappiness/huge-pages) - https://github.com/osm-fr/ansible-scripts/pull/96 10 | 11 | Reboot du host pour appliquer l'ajout des huge-pages. 12 | Deux soucis après reboot: 13 | - mobilizon déclenche une erreur, surement à cause d'une mise à jour effectuée à moitié précédemment. Réparation effectué après discussion sur https://github.com/osm-fr/ansible-scripts/pull/96. 14 | - taginfo n'affiche pas correctement la liste des clés populaires. 15 | 16 | On a 3MB de hugepages utilisés, mais ce host n'a pas de grosses bases postgresql, du coup, c'est attendu. 17 | -------------------------------------------------------------------------------- /th3/osm34.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm34 2 | 3 | ## 2025-06-21 - cquest 4 | 5 | Erreurs en lecture sur le SSD SATA (sda). 6 | Un scrub ZFS indique 26 erreurs de lecture, certains fichiers umap sont impactés et quelques logs: 7 | - migration des données uMap sur le SSD NVMe, avec récupération des répliques depuis osm32 8 | - toutes les erreurs sont corrigées 9 | - réplique remise en place vers osm35, puis osm32 (le 24-06-2025) 10 | 11 | ## 2024-12-12 - cquest 12 | 13 | Mise à jour proxmox 8.3.1 faite et reboot. 14 | 15 | ## 2023-08-09 - jocelyn 16 | 17 | Suite à saturation du disque osm33, suppression de ~60 snapshots umap utilisé pour les backups journaliers sur osm32. 18 | Umap a pris +40G en 3 mois - à vérifier si c'est normal. 19 | 20 | ## 2024-01-06 - cquest 21 | 22 | Mise à jour Proxmox 8 23 | 24 | Migration des conteneurs sur osm35, non remis pour le moment sur osm34 25 | -------------------------------------------------------------------------------- /cquest/osm13.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm13 2 | 3 | ## 2023-11-19 - cquest 4 | 5 | Le SSD NVMe de 2To a planté... il ne revient qu'après avoir éteint/rallumé le serveur (le reboot ne suffit pas). 6 | Service de retour, mais à surveiller. 7 | 8 | 9 | ## 2023-11-29 - cquest 10 | 11 | Le SSD NVMe de 2To a planté... il ne revient qu'après avoir éteint/rallumé le serveur (le reboot ne suffit pas). 12 | Il est en fin de vie. 13 | 14 | Il contient uniquement la base PG, cope en cours (double rsync) vers le SSD SATA quasiment inutilisé, qui est en ZFS ce qui permettra des backup ou autre. 15 | update osm2pgsql suspendus. 16 | 17 | SSD 4To NVMe à commander... 18 | 19 | ## 2023-11-30 - cquest 20 | 21 | Base PG migrée sur le SSD SATA, les rendus sont de retour. 22 | 23 | ## 2025-11-26 - cquest 24 | 25 | Remplacement du SSD SATA par le NVMe (zfs attach, resilver du mirroir, zfs detach) 26 | Mise à jour en Proxmox 9 27 | -------------------------------------------------------------------------------- /th3/osm32.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm32 2 | 3 | ## 2025-06-24 - cquest 4 | 5 | Création d'un "faux" pool nvme-zfs à l'aide d'un fichier de 2To alloué sur /backups 6 | Ceci va permettre aux repliques de se faire, en particulier celles sur osm34 où les données umap se trouvent désormais sur nvme-zfs. 7 | 8 | ## 2024-12-12 - cquest 9 | 10 | osm12 était freezé depuis plusieurs jours. 11 | 12 | Il a rebooté sans problème. 13 | 14 | Mise à jour proxmox 8.3.1 faite. 15 | 16 | ## 2023-07-14 - cquest 17 | 18 | **rpool quasi saturé** (97%), besoin de faire de la place avant que ZFS ne bloque tout, il est déjà très lent et il faudrait rester en dessous de 90% 19 | 20 | - suppression de snapshots du backup des data umap qui occupent 272Go, **rpool maintenant à 94%** 21 | ``` 22 | for S in $(zfs list -t snap rpool/backups/umap-data -H -o name | head -n -14); do echo $S; zfs destroy $S;done 23 | ``` 24 | - apt update / dist-upgrade (43 packages mis à jour) 25 | - zpool trim 26 | 27 | ## 2024-01-06 - cquest 28 | 29 | Mise à jour Proxmox 8 30 | -------------------------------------------------------------------------------- /free/osm12.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm12 2 | 3 | ## 2024-12-11 - cquest 4 | 5 | Déplacement à DC1: 6 | - premier reboot: plantage avec un kernel panic dû à une erreur CPU 7 | - second reboot... ça passe et ça freeze peu de temps après 8 | 9 | Problème hardware, pas étonnant, ce serveur tourne H24 depuis 12 ans ! 10 | 11 | Je l'ai ramené chez moi pour voir ce qu'on peut encore en tirer. Il y a au moins les 2 SSD NVMe de 4To à réutiliser (désormais sur osm51/52) 12 | 13 | Mise à jour du wiki faite. 14 | 15 | ## 2024-11-20 - cquest 16 | 17 | Panne d'osm12 qui ne répond plus. 18 | - bano.openstreetmap.fr migré sur osm14 19 | - tuiles humanitaires redirigées temporairement vers le rendu osm.org 20 | - contact avec free pour le relancer... 21 | 22 | ## 2023-07-28 - cquest 23 | 24 | Remplacement de atime par relatime sur les pool ZFS, afin de limiter les écritures. 25 | Globalement une précision à la journée sur le dernier accès est amplement suffisante. 26 | Cela limitera l'usure des SSD... et la taille des snapshots donc le temps de réplication. 27 | -------------------------------------------------------------------------------- /LICENSE: -------------------------------------------------------------------------------- 1 | MIT License 2 | 3 | Copyright (c) 2017 Openstreetmap France 4 | 5 | Permission is hereby granted, free of charge, to any person obtaining a copy 6 | of this software and associated documentation files (the "Software"), to deal 7 | in the Software without restriction, including without limitation the rights 8 | to use, copy, modify, merge, publish, distribute, sublicense, and/or sell 9 | copies of the Software, and to permit persons to whom the Software is 10 | furnished to do so, subject to the following conditions: 11 | 12 | The above copyright notice and this permission notice shall be included in all 13 | copies or substantial portions of the Software. 14 | 15 | THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR 16 | IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, 17 | FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE 18 | AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER 19 | LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, 20 | OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE 21 | SOFTWARE. 22 | -------------------------------------------------------------------------------- /th3/osm36.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm36 2 | 3 | ## 2024-01-22 - jocelyn 4 | 5 | Reboot du host à nouveau après nouvel import complet du planet. Le log de l'import en était à: 6 | ``` 7 | 2024-01-21 22:41:44 Done postprocessing on table 'planet_osm_nodes' in 0s 8 | 2024-01-21 22:41:44 Building index on table 'planet_osm_ways' 9 | 2024-01-21 22:41:44 Building index on table 'planet_osm_rels' 10 | ``` 11 | Et le reboot s'est déclenché à 22:45, du coup, surement pendant la création d'un index. 12 | 13 | 14 | ## 2024-01-21 - jocelyn 15 | 16 | Après création d'un CT pour une base osm2pgsql sur le nvme-zfs, l'import initial du planet a été lancé, causant un reboot hard du host complet. Le log IPMI affiche ceci 17 | ``` 18 | Sat 20 Jan 2024 11:20:54 PM Critical 120055 Fujitsu Legacy PCI SERR Bus: 128 Device: 0x02 Function: 0x00 Critical Hardware Errors 19 | Sat 20 Jan 2024 11:20:54 PM Critical 120067 Fujitsu PCI: Surprise Down Error Status Bus: 128 Device: 0x02 Function: 0x00 Critical Hardware Errors 20 | Sat 20 Jan 2024 11:20:56 PM Critical 120047 NMI Fatal NMI Critical Hardware Errors 21 | ``` 22 | où la carte PCI pourrait être le disque NVME ou la carte réseau. 23 | 24 | ## 2024-01-04 - cquest 25 | 26 | Installation initiale du serveur à TH3. 27 | -------------------------------------------------------------------------------- /README.md: -------------------------------------------------------------------------------- 1 | # infrastructure 2 | 3 | Handle tickets against osm-fr infrastructure 4 | 5 | 6 | For an overview of all managed infrastructures, go to [FR:Serveurs OpenStreetMap France wiki web page](https://wiki.openstreetmap.org/wiki/FR:Serveurs_OpenStreetMap_France) that list servers informations of OpenStreetMap France association and services they provide. 7 | 8 | You can also take a look to [technical group page](https://wiki.openstreetmap.org/wiki/WikiProject_France/OSM-FR/Groupes_de_travail/Technique) to contact the team that manage servers (to help, ask some hosting on a server, offer hardware, ...). 9 | 10 | --- 11 | 12 | Contient tous les tickets ou tâches au sujet de l'infrastructure d'osm-fr 13 | 14 | 15 | Pour une vue d'ensemble des infrastructures gérées, allez à [la page du wiki FR:Serveurs OpenStreetMap France](https://wiki.openstreetmap.org/wiki/FR:Serveurs_OpenStreetMap_France) qui liste les informations sur les serveurs de l'association OpenStreetMap France et les services qu'ils proposent. 16 | 17 | Passez voir [la page du groupe technique](https://wiki.openstreetmap.org/wiki/WikiProject_France/OSM-FR/Groupes_de_travail/Technique) pour contacter l'équipe qui les gèrent (proposer votre aide, demander une place sur un serveur, offrir du matériel, ...). 18 | 19 | ## Journaux de bord (test) 20 | 21 | Test du maintient d'un journal de bord par machine sous forme de fichier markdown, un fichier par machine, rangé dans un dossier par site (free, ovh, TH3, etc). 22 | -------------------------------------------------------------------------------- /paulla/osm29.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm29 2 | 3 | ## 2023-09-14 - Adrien (teslix) 4 | 5 | Test du recordsize à 16K sur le volume de osm211 vers 11H20: 6 | ``` 7 | zfs set recordsize=16K rpool/data/subvol-211-disk-0 8 | root@osm29:~# zfs get recordsize 9 | NAME PROPERTY VALUE SOURCE 10 | rpool recordsize 128K default 11 | rpool/ROOT recordsize 128K default 12 | rpool/ROOT/pve-1 recordsize 128K default 13 | rpool/data recordsize 128K default 14 | rpool/data/subvol-211-disk-0 recordsize 16K local 15 | ``` 16 | 17 | Ajout des sondes munin zfs depuis les contrib munin https://github.com/munin-monitoring/contrib/tree/master/plugins/zfs : 18 | 19 | ``` 20 | zfs_arcstats -> /etc/munin/contrib/plugins/zfs/zfs_arcstats 21 | zfsonlinux_stats_cachehitdtype -> /etc/munin/contrib/plugins/zfs/zfsonlinux_stats_ 22 | zfsonlinux_stats_cachehitlist -> /etc/munin/contrib/plugins/zfs/zfsonlinux_stats_ 23 | zfsonlinux_stats_efficiency -> /etc/munin/contrib/plugins/zfs/zfsonlinux_stats_ 24 | zfsonlinux_stats_l2efficiency -> /etc/munin/contrib/plugins/zfs/zfsonlinux_stats_ 25 | zfsonlinux_stats_l2utilization -> /etc/munin/contrib/plugins/zfs/zfsonlinux_stats_ 26 | zfsonlinux_stats_utilization -> /etc/munin/contrib/plugins/zfs/zfsonlinux_stats_ 27 | zpool_capacity -> /home/munin/zpool_capacity 28 | zpool_fragmentation -> /etc/munin/contrib/plugins/zfs/zpool_fragmentation 29 | zpool_iostat -> /etc/munin/contrib/plugins/zfs/zpool_iostat 30 | ``` 31 | 32 | Rollback à 14H41, ça ne marche pas du tout sur hdd ^^: 33 | 34 | load average: 72476.38, 23361.04, 9925.69 35 | -------------------------------------------------------------------------------- /cquest/osm11.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm11 2 | 3 | ## 2023-07-14 - cquest 4 | 5 | Le SSD SATA de 2To n'a plus que 9% d'espérance de vie, au rythme actuel de son usage cela donne 9 mois. 6 | 7 | SSD de remplacement (4To) commandé. 8 | 9 | ## 2023-07-16 - cquest 10 | 11 | Le SSD de remplacement est arrivé (oui, un dimanche). 12 | Remplacement à faire en fonction des slots dispo et port SATA dispo... 13 | 14 | ssd-zfs plein à 97%... j'ai donc fait du ménage: 15 | - déplacement des CT inutilisés sur hdd-zfs 16 | - augmentation de la marge d'espace libre dans le script de nettoyage du cache de cyclosm... 10 -> 100G 17 | 18 | Avec ce réglage est maintenant à 89%, ce qui est bien plus safe ! 19 | 20 | ## 2023-07-21 - cquest 21 | 22 | **Installation du nouveau SSD SATA** de 4To sur une carte PCIe, connecté sur la port SATA de la carte mère destiné à la base au DVD 23 | 24 | Copie lancée par zfs send/recv du cache de tuiles de cyclosm 25 | 26 | Copie terminée, bascule de ssd-zfs sur le nouveau SSD, l'ancien pool est temporairement sur ssd-zfs-old 27 | 28 | ## 2023-07-28 - cquest 29 | 30 | Remplacement de atime par relatime sur les pool ZFS, afin de limiter les écritures. 31 | Globalement une précision à la journée sur le dernier accès est amplement suffisante. 32 | Cela limitera l'usure des SSD... et la taille des snapshots donc le temps de réplication. 33 | 34 | ## 2023-08-05 - cquest 35 | 36 | Ajout d'une IPv6 pour osm11 pour permettre à osm23-24 (les caches de tuiles) d'y accéder par deux canaux différents: 37 | - IPv4 : fibre OVH 38 | - IPv6: fibre free 39 | 40 | Cela permet ajouter une seconde entrée en upstream "backup" avec l'IPv6 fixe sur la config nginx d'osm23-24 qui basculera d'une fibre à l'autre en cas d'indisponibilité. 41 | 42 | Pour plus de résilience, chaque box fibre est maintenant sur une arrivée électrique différente. 43 | 44 | ## 2023-08-07 - cquest 45 | 46 | **Problème sur la carte RAID**... afficheur "orange" indiquant un souci sur la batterie 47 | Le pool ZFS hdd-zfs était bloqué, ce qui bloquait renderd. 48 | Reboot hard (off/on) du serveur. 49 | Plus d'erreur sur l'afficheur. 50 | 51 | J'en ai profité pour augmenter le **quota pour le cache de tuiles de cyclosm à 3To** vu qu'on a maintenant 4To de SSD au lieu de 2To. 52 | -------------------------------------------------------------------------------- /th3/osm33.md: -------------------------------------------------------------------------------- 1 | # Journal de bord d'osm33 2 | 3 | ## 2025-12-10 - cquest 4 | 5 | Mise à jour en Proxmox 9 6 | 7 | ## 2025-11-21 - cquest 8 | 9 | Rendu FR relancé, ainsi que le conteneur d'expiration... tout est à nouveau de retour à la normale. 10 | 11 | ## 2025-11-19 - cquest 12 | 13 | Intervention à TH3 pour remettre un SSD de remplacement. 14 | C'est un Samsung 860 Pro d'1To que j'avais sous la main, installé en face avant (format 2.5") 15 | - Proxmox 8.4 installé dessus, 16 | - noeud osm33 remis dans le cluster (https://forum.proxmox.com/threads/reinstall-node-in-cluster.64281/) 17 | - conteneur osm2pgsql relancé... mais pas ceux du rendu FR pour le moment 18 | 19 | ## 2025-09-15 - cquest 20 | 21 | Le SSD SATA est HS, le serveur bloque au redémarrage... je l'ai éteint et mis en place une redirection du rendu FR vers le rendu OSMF. 22 | 23 | ## 2025-09-13 - cquest 24 | 25 | Mise à jour des conteneurs du rendu FR: 26 | - osm2pgsql: Ubuntu 20.04 > 22.04 et Postgresql 16 > 17 27 | - renderd: Ubuntu 20.04 > 24.04 28 | - expired: Ubuntu 20.04 > 22.04 29 | 30 | Diminution du temps de rendu des metatiles + du CPU utilisé. 31 | 32 | ## 2025-03-10 - cquest 33 | 34 | Plus d'accès SSH sur le serveur, mais ping ok 35 | 36 | FAIT: 37 | - Reboot fait depuis le KVM de management 38 | - Kernel mis à jour et second reboot 39 | 40 | ## 2024-12-12 - cquest 41 | 42 | Mise à jour proxmox 8.3.1 faite et reboot. 43 | 44 | ## 2023-07-14 - cquest 45 | 46 | FAIT: 47 | - Reboot hard du serveur, bloqué suite à une saturation de l'espace disque. 48 | - mise en place d'un quota de 300Go pour le mirror des fichier planet + réduction de la rétention à 20 jours (4 planet maximum) 49 | - apt-update / dist-upgrade après reboot 50 | - zpool trim 51 | 52 | Prêt pour upgrade vers Proxmox 8 (vérifié avec pve7to8) 53 | 54 | ## 2023-07-15 - cquest 55 | 56 | La température du SSD nvme0 monte chaque heure au delà de 60°. 57 | C'est dû à osm2pgsql du CT100 qui fait les mises à jour sur les diff horaire ce qui provoque: 58 | - un pic d'écritures sur le SSD 59 | - un pic de charge CPU 60 | 61 | Le SSD étant physiquement derrière les CPU, il se prend un coup d'air chaud et chauffe lui même plus avec les écritures. 62 | 63 | FAIT: 64 | - **J'ai réduit le nombre de threads d'osm2pgsql de 8 à 4** dans le CT100 pour voir si cela réduit ce pic en lissant un peu les mises à jour. 65 | 66 | Autre info de contexte: le datacenter TH3 n'est plus à 18° mais plutôt à 22/23°... ceci n'est pas négligeable. 67 | 68 | ## 2023-07-28 - cquest 69 | 70 | Remplacement de atime par relatime sur les pool ZFS, afin de limiter les écritures. 71 | Globalement une précision à la journée sur le dernier accès est amplement suffisante. 72 | Cela limitera l'usure des SSD... et la taille des snapshots donc le temps de réplication. 73 | 74 | ## 2023-08-03 - jocelyn 75 | 76 | Suite à panne temporaire d'osm11/osm13, installation d'un rendu cyclosm sur le CT renderd.th3 (+ compte pgsql `cyclosm` sur osm2pgsql.th3), sans countours ni ombrages. http://tile.openstreetmap.fr a été temporairement basculé sur ce rendu le lendemain, avant que osm11 ne soit rétabli. 77 | 78 | ## 2023-08-09 - jocelyn 79 | 80 | /rpool est plein, du coup nettoyage: 81 | - suppression du rendu cyclosm (et tuiles) de renderd.th3 82 | - suppression des fichiers de /rpool/tiles/fr/20 83 | - ajout de /rpool/reservation de 20G pour garder de la place vide pour la prochaine fois 84 | ``` 85 | zfs create rpool/reservation 86 | zfs set reservation=20G rpool/reservation 87 | ``` 88 | 89 | La page web proxmox affiche toujours osm33 en non-connecté - un reboot risque d'être nécessaire comme début juillet. 90 | 91 | ## 2023-08-10 - jocelyn 92 | 93 | Reboot du host avec `systemctl --force reboot`. 94 | 95 | ## 2024-01-06 - cquest 96 | 97 | Mise à jour en Proxmox 8 98 | zpool trim sur les SSD 99 | Mise à jour de PG 15 > 16 sur le conteneur osm2pgsql 100 | --------------------------------------------------------------------------------