Bonjour à tous,
nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
Cordialement.
Jhonny CASTILLO
Ciao
Par externalisé tu veux dire géré par un prestataire, géré sur des serveurs distants à vous ? De mon coté j'utilisé bacula et duplicity, selon les besoins c'est pas mal.
Km
Hello,
yep ça dépend beaucoup du besoin. Pour ma part j'ai pris une demi baie “ailleurs”, dans laquelle j'ai déployé un petit cluster Ceph (avec Erasure Coding), dédié à ça.
C'était pour moi le plus simple afin de pouvoir stocker les backups de certain gros clients. Tout est relatif, mais quand il faut stocker & historiser des mois de sauvegardes de serveurs de 4To, ça devient vite compliqué en allocation de ressources.
Et accessoirement, pour sauvegarder un cluster Ceph de prod, un cluster Ceph de backup est pratique.
Bref, quel est le besoin exact ?
Olivier
Le mercredi 15 juillet 2015 à 10:17 +0200, cam.lafit@azerttyu.net a écrit :
Ciao
Par externalisé tu veux dire géré par un prestataire, géré sur des serveurs distants à vous ? De mon coté j'utilisé bacula et duplicity, selon les besoins c'est pas mal.
Km _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Hello,
On Wed, Jul 15, 2015 at 10:11 AM Jhonny CASTILLO jcastillo@wwf.fr wrote:
nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
Je suis généralement pas fan d'Amazon, mais chez nous on est en train de mettre en place des backups off-site à base de duplicity et Amazon Glacier, pour l'instant ça s'annonce bien (des retours à ce sujet d'ailleurs ?)
Je suis en train de mettre en place une solution similaire à base de backupninja/duplicity/hubic.
Pour l'instant, ça a l'air de pas trop mal marché. Le gros inconvénient que je trouve à cette solution, c'est que ça manque d'un machin centralisé à la backuppc pour configurer et surveiller l'ensemble (actuellement, chaque machine se gère elle même). Le jour où ça partira en couille, je sens que je pleurerai très fort...
Cordialement, Jonathan
On 07/15/2015 10:42 AM, Rémy Sanchez wrote:
Hello,
On Wed, Jul 15, 2015 at 10:11 AM Jhonny CASTILLO <jcastillo@wwf.fr mailto:jcastillo@wwf.fr> wrote:
nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
Je suis généralement pas fan d'Amazon, mais chez nous on est en train de mettre en place des backups off-site à base de duplicity et Amazon Glacier, pour l'instant ça s'annonce bien (des retours à ce sujet d'ailleurs ?) -- *Rémy Sanchez* http://hyperthese.net/
Liste de diffusion du FRsAG http://www.frsag.org/
Il suffit de monitorer tout ça avec nagios ou zabbix
Le 15 juil. 2015 à 11:10, Jonathan Tremesaygues jonathan.tremesaygues@menta.fr a écrit :
Je suis en train de mettre en place une solution similaire à base de backupninja/duplicity/hubic.
Pour l'instant, ça a l'air de pas trop mal marché. Le gros inconvénient que je trouve à cette solution, c'est que ça manque d'un machin centralisé à la backuppc pour configurer et surveiller l'ensemble (actuellement, chaque machine se gère elle même). Le jour où ça partira en couille, je sens que je pleurerai très fort...
Cordialement, Jonathan
On 07/15/2015 10:42 AM, Rémy Sanchez wrote: Hello,
On Wed, Jul 15, 2015 at 10:11 AM Jhonny CASTILLO jcastillo@wwf.fr wrote: nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
Je suis généralement pas fan d'Amazon, mais chez nous on est en train de mettre en place des backups off-site à base de duplicity et Amazon Glacier, pour l'instant ça s'annonce bien (des retours à ce sujet d'ailleurs ?)
Rémy Sanchez http://hyperthese.net/
Liste de diffusion du FRsAG http://www.frsag.org/
Liste de diffusion du FRsAG http://www.frsag.org/
Ciao
Avec duplicity il y a plein de passerelle pour exporter ses données (amazon, ssh, ftp, ....) ce qui est assez pratique. Sur mes serveurs LAMP, je sauvegarde par vhost, si on s'amuse avec un gros répertoire ça mouline parfois, un découpage par sous repertoires allége pas mal la charge. C'est aussi plus pratique lorsqu'on a besoin de faire une restauration.
Avec bacula, c'est simple on centralise tout mais bon c'est facile de se planter et il faut un peu de temps pour bien configurer le tout. Par exemple le truc con que j'avais fait c'était de sauvegarder aussi les tmp/ de chaque vhost, dans certains c'était 3/4 des données pour rien. Avec duplicity ce genre de détail passe plus facilement à la trappe.
Km
+--On 15 juillet 2015 08:42:01 +0000 Rémy Sanchez remy.sanchez@hyperthese.net wrote: | Hello, | | On Wed, Jul 15, 2015 at 10:11 AM Jhonny CASTILLO jcastillo@wwf.fr wrote: | |> nous devons externalise nos donnes et je voudrais savoir si vous avez des |> idées SVP |> | | Je suis généralement pas fan d'Amazon, mais chez nous on est en train de | mettre en place des backups off-site à base de duplicity et Amazon | Glacier, pour l'instant ça s'annonce bien (des retours à ce sujet | d'ailleurs ?)
Je fais des sauvegardes perso sur glacier aussi, et c'est pas mal au niveau coût, par contre, il faut bien se dire que si tu as besoin de récupérer des données, ça va mettre, d'une part, des heures pour qu'elles soient accessibles en lecture, et après, du temps pour les récupérer. C'est à utiliser plus comme une bande que tu vas mettre au coffre de la banque que comme une sauvegarde principale ou tu peux avoir besoin de piquer dedans régulièrement, parce qu'il y a vraiment *des heures* avant de pouvoir y lire un fichier.
Salut.
Jeter un oeil sur seafile. https://www.seafile.com/en/home/ Ce projet est très intéressant pour du backup.
Mais bon, on en sait si peu sur le projet que ....
Cdlt A
Le 15 juillet 2015 11:50, Mathieu Arnold mat@mat.cc a écrit :
+--On 15 juillet 2015 08:42:01 +0000 Rémy Sanchez remy.sanchez@hyperthese.net wrote: | Hello, | | On Wed, Jul 15, 2015 at 10:11 AM Jhonny CASTILLO jcastillo@wwf.fr wrote: | |> nous devons externalise nos donnes et je voudrais savoir si vous avez des |> idées SVP |> | | Je suis généralement pas fan d'Amazon, mais chez nous on est en train de | mettre en place des backups off-site à base de duplicity et Amazon | Glacier, pour l'instant ça s'annonce bien (des retours à ce sujet | d'ailleurs ?)
Je fais des sauvegardes perso sur glacier aussi, et c'est pas mal au niveau coût, par contre, il faut bien se dire que si tu as besoin de récupérer des données, ça va mettre, d'une part, des heures pour qu'elles soient accessibles en lecture, et après, du temps pour les récupérer. C'est à utiliser plus comme une bande que tu vas mettre au coffre de la banque que comme une sauvegarde principale ou tu peux avoir besoin de piquer dedans régulièrement, parce qu'il y a vraiment *des heures* avant de pouvoir y lire un fichier.
-- Mathieu Arnold _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Ciao
Jeter un oeil sur seafile. https://www.seafile.com/en/home/ Ce projet est très intéressant pour du backup.
Mais bon, on en sait si peu sur le projet que ....
ici ça fonctionne bien. Pour de la donnée partagée avec une copie temps "réel" externe ça le fait bien. Mais pour une problématique de sauvegarde je ne suis pas sur que ce soit la bonne solution. Il y a boxbackup qui semblerait plus adapté si on prend cette voie.
hubic/dropbox/seafile restent plus dans l'esprit de répertoires partagés avec parfois une notion d'historique que d'un systeme de sauvegarde.
Km
On 15/07/2015 13:48, cam.lafit@azerttyu.net wrote:
Ciao
Jeter un oeil sur seafile. https://www.seafile.com/en/home/ Ce projet est très intéressant pour du backup.
Mais bon, on en sait si peu sur le projet que ....
ici ça fonctionne bien. Pour de la donnée partagée avec une copie temps "réel" externe ça le fait bien. Mais pour une problématique de sauvegarde je ne suis pas sur que ce soit la bonne solution. Il y a boxbackup qui semblerait plus adapté si on prend cette voie.
seafile (ou rsync, ou autre) avec:
https://www.kernel.org/doc/Documentation/filesystems/nilfs2.txt
-- ++
Guillaume
Sinon une solution efficace en mono-site est d'utiliser rdiff-backup sur un couple de disques externes. L'un est connecté au serveur de backup, l'autre est à l'abri sur un autre site (genre chez un admin, ou un dirigeant). Un des deux disques est toujours dehors, en cas de problème majeur (incendie, ...) une copie est toujours disponible, et la perte de données maximum est de 24 heures. Par ailleurs, en termes plus quotidiens, rdiff-backup permet une rétention de plusieurs semaines et des restaurations très faciles...
On est passé d'une solution Amanda + lecteur de bande à cette solution "low-cost" il y a quelques années, et la performance / praticité sont incomparables ! (sans compter que le jour où le lecteur de bande (SCSI) est tombé en panne, bonjour la galère pour le remplacer...)
Franck
Le 15/07/2015 14:59, Guillaume a écrit :
On 15/07/2015 13:48, cam.lafit@azerttyu.net wrote:
Ciao
Jeter un oeil sur seafile. https://www.seafile.com/en/home/ Ce projet est très intéressant pour du backup.
Mais bon, on en sait si peu sur le projet que ....
ici ça fonctionne bien. Pour de la donnée partagée avec une copie temps "réel" externe ça le fait bien. Mais pour une problématique de sauvegarde je ne suis pas sur que ce soit la bonne solution. Il y a boxbackup qui semblerait plus adapté si on prend cette voie.
seafile (ou rsync, ou autre) avec:
https://www.kernel.org/doc/Documentation/filesystems/nilfs2.txt
-- ++
Guillaume _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/
Le Wed, Jul 15, 2015 at 04:43:51PM +0200, Franck Routier a écrit:
Sinon une solution efficace en mono-site est d'utiliser rdiff-backup sur
Je l'utilise aussi, il est fort pratique. Par contre il me semblait qu'il avait été "deprecated" sur je ne sais quel OS, pour je ne sais plus quelle raison, et qu'il fallait utiliser rsnapshot à la place... Qui marche lui-même plutôt bien, mais je le trouve plus lent que rdiff-backup (probablement dû à la création d'une "copie" à base de lien de la sauvegarde précédente).
Quelqu'un se souvient de cette histoire ? Ou alors je confonds avec l'histoire du "la 1.2.5 elle est pas compatible avec la 1.2.8" ? :)
Arnaud.
Le vendredi 17 juillet 2015 16:21:27 Arnaud Launay a écrit :
Le Wed, Jul 15, 2015 at 04:43:51PM +0200, Franck Routier a écrit:
Sinon une solution efficace en mono-site est d'utiliser rdiff-backup sur
Je l'utilise aussi, il est fort pratique. Par contre il me semblait qu'il avait été "deprecated" sur je ne sais quel OS, pour je ne sais plus quelle raison, et qu'il fallait utiliser rsnapshot à la place... Qui marche lui-même plutôt bien, mais je le trouve plus lent que rdiff-backup (probablement dû à la création d'une "copie" à base de lien de la sauvegarde précédente).
Quelqu'un se souvient de cette histoire ? Ou alors je confonds avec l'histoire du "la 1.2.5 elle est pas compatible avec la 1.2.8" ? :)
rdiff-backup n'est plus maintenu. La dernière version date de 2009 et les bugs commencent à s'accumuler[1]. Je croyais que c'était gentoo qui l'avait virer mais il semble qu'il soit toujours là, même s'il s'agit de la dernière version de développement et pas la version stable. Quoi qu'il en soit, les mainteneurs des distributions vont bientôt en avoir marre de patcher, Debian, par exemple, a un patch pour éviter des warning qui est arrivé lors du passage python2.6 à 2.7[2]. Le coup final arrivera sans doute avec le passage à python3 (il y a encore de la marge), sauf si plusieurs failles de sécurités se présentent ou une incompatibilité avec un nouveau FS comme Btrfs mais je doute.
[1]: http://savannah.nongnu.org/bugs/?group=rdiff-backup&func=browse&set=... [2]: http://http.debian.net/debian/pool/main/r/rdiff-backup/rdiff-backup_1.2.8-7....
Arnaud.
On Wed, Jul 15, 2015 at 10:11:13AM +0200, Jhonny CASTILLO wrote:
Bonjour à tous,
nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
http://www.tarsnap.com/index.html
On Wed, Jul 15, 2015 at 11:29:48AM +0200, Jeremie Le Hen wrote:
On Wed, Jul 15, 2015 at 10:11:13AM +0200, Jhonny CASTILLO wrote:
Bonjour à tous,
nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
Et plus précisemment http://www.tarsnap.com/design.html :-)
July 15 2015 5:34 AM, "Jeremie Le Hen" jeremie@le-hen.org wrote:
On Wed, Jul 15, 2015 at 11:29:48AM +0200, Jeremie Le Hen wrote:
On Wed, Jul 15, 2015 at 10:11:13AM +0200, Jhonny CASTILLO wrote:
Bonjour à tous,
nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
Et plus précisemment http://www.tarsnap.com/design.html :-)
-- Jeremie Le Hen
Scientists say the world is made up of Protons, Neutrons and Electrons. They forgot to mention Morons. _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org
Je me dois de renchérir : Tarsnap, c'est *très* bien. Tant que tu veux pas faire du Windows, ca marchera sur tous tes systèmes, c'est pas cher (vraiment), ca fait de la dédup, et c'est chiffré chez l'hébergeur. Tout ça, sans configuration particulière.
Hello,
De mon côté, j'utilise backuppc sur une machine virtuelle.
La partition /var/lib/backuppc est sur LVM et chiffré.
Le 15/07/2015 16:03, Clément Hertling (Wxcafé) a écrit :
July 15 2015 5:34 AM, "Jeremie Le Hen" jeremie@le-hen.org wrote:
On Wed, Jul 15, 2015 at 11:29:48AM +0200, Jeremie Le Hen wrote:
On Wed, Jul 15, 2015 at 10:11:13AM +0200, Jhonny CASTILLO wrote:
Bonjour à tous,
nous devons externalise nos donnes et je voudrais savoir si vous avez des idées SVP
Et plus précisemment http://www.tarsnap.com/design.html :-)
-- Jeremie Le Hen
Scientists say the world is made up of Protons, Neutrons and Electrons. They forgot to mention Morons. _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org
Je me dois de renchérir : Tarsnap, c'est *très* bien. Tant que tu veux pas faire du Windows, ca marchera sur tous tes systèmes, c'est pas cher (vraiment), ca fait de la dédup, et c'est chiffré chez l'hébergeur. Tout ça, sans configuration particulière. _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/