Bonjour à tous
TLDR:
On cherche un administrateur système/réseau/multitâche pour completer une
petite équipe, pour gérer à la fois de l'infra physique et virtuelle,
actuellement surtout basée sur proxmox / puppet / debian / centos, avec un
peu de cloud et meme du kubernetes on premise, du réseau bgp et ospf, et
potentiellement beaucoup d'autres choses suivant les envies, besoins et
l'évolution.
Il y a aussi une partie de support et conseil interne, ainsi que du
consulting possible auprès des …
[View More]clients.
Je sais que le salaire n'est pas mentionné, mais les profiles pouvant
correspondre sont tellement variables qu'il est difficile de mettre une
fourchette qui ne soit pas ridiculement large, donc salaire sur profil.
Si ça vous intéresse, envoyez moi un mail, merci :)
Version longue:
La boite: ADVANCED SCHEMA est une société de services informatiques
spécialisée dans la donnée.
Depuis 20 ans, nous créons des plateformes de données sur mesure pour nos
clients. Nous investissons fortement dans nos activités de R&D afin de
concevoir des solutions innovantes et de continuer à sortir des sentiers
battus. ADVANCED SCHEMA a développé de nouvelles activités pour réaliser
l'ambition du groupe : devenir une entreprise end-to-end, en proposant une
offre à 360° à nos clients pour les accompagner à chaque étape de leurs
projets.
https://www.advanced-schema.com/homehttps://www.welcometothejungle.com/fr/companies/advanced-schema
Le poste: https://advanced.recruitee.com/o/administrateur-systeme-reseau
En tant qu'Administrateur Système et Réseau, vous travaillez dans l'équipe
responsable de l'ensemble des infrastructures du Groupe ADVANCED SCHEMA et
de ses filiales. Votre rôle consiste à assurer la maintenance,
l'amélioration et l'accroissement de ces infrastructures.
Quelques-unes de vos activités :
- Création et maintien de mécanismes d'automatisation, d'installation et de
configuration de nos équipements datacenter via l'orchestrateur puppet
(Hyperviseurs, VM, lxc, firewall, switch, monitoring, backup, ...)
- Fourniture de services à nos collaborateurs, ainsi qu'à nos clients
- Recherche, développement et mise en place de solutions techniques visant
à l'amélioration constante de nos plateformes et outils.
- Configuration physique, installation et câblage de nos baies, routeurs,
switchs et serveurs
Vous l'aurez compris, le poste à pourvoir comprend tant la gestion des
serveurs physiques et virtuels que la partie support et conseil pour nos
projets clients et internes.
Vos compétences et qualités :
- Vous avez un bon sens du relationnel et savez travailler en équipe
- Curieux, autonome et assidu, les challenges techniques sont pour vous une
source de motivation
- Vous êtes passionnés d'informatique au sens large, et êtes en constante
recherche de nouvelles compétences
- Vous maîtrisez les principaux outils d'administration systèmes et réseaux
(langages de script, firewall, switch, routeur, système Linux, etc.)
--
Thomas SAMSON
[View Less]
Bon(soi|jou)r la liste,
Je pose ici mes réflexions sur un problème qui, j'espère, parlera à
certains (qui l'auront résolu), pourra en aider d'autres (qui
l'ont/l'auront un jour).
TL;DR :
Quels sont les services à utiliser pour pouvoir authentifier des
utilisateurs lors d'accès à des dossiers partagés CIFS, des serveurs SSH
Linux et des applications Web avec un référentiel unique/centralisé.
CONTEXTE :
J'ai actuellement l'infrastructure suivante :
* Annuaire LDAP sous OpenLDAP : c'est le ré…
[View More]férentiel unique, il contient
utilisateurs/machines (PosixAccount) et groupes (PosixGroup).
* Application (web) maison pour alimenter l'annuaire en fonction des
embauches/départs (pas de base de données SQL ou autre, tout est dans
le LDAP).
* Serveur OpenID pour certaines applications web : utilise le LDAP comme
source.
* Les utilisateurs ont des comptes locaux sur leur stations de travail
Windows/Linux (aucune interaction avec le LDAP).
Ainsi, les utilisateurs peuvent s'identifier sur :
* des application Web qui gèrent nativement LDAP (eg. Moodle, GitLab,
GLPI, etc.).
* des applications Web sous Apache/Nginx (via mod_authnz_ldap ou
nginx-ldap-auth).
* des applications Web qui gèrent OpenID.
* des serveurs Linux en SSH via nslcd, libnss-ldapd et libpam-ldapd.
(Et avoir un carnet d'adresse des collègues dans leur client de messagerie)
Chaque application est responsable de qui elle accepte (utilisateur
et/ou groupe) et de ce qu'elle lui autorise de faire (l'annuaire LDAP ne
contient pas de permissions).
PROBLÈMES/LIMITES :
Cela fonctionne (bien) depuis des années, mais ne réponds pas aux
besoins suivants (arrivés plus tard) :
* (Le plus important): le partage de fichiers via CIFS/Samba (car
nécessite des attributs spécifiques dans le LDAP).
* stocker *facilement* des données complexes dans OpenLDAP (eg.
variantes d'avatars/photo, jours de présence sur x semaines)
Bonus facultatif : gestion "domaine" des comptes utilisateurs des
stations de travail pour qu'ils utilisent les même identifiants lors de
l'ouverture de leur session, que je puisse les gérer de manière
centralisée, et qu'ils soient même pré-authentifiés sur les serveurs de
fichiers.
ÉBAUCHE DE SOLUTION :
Je pense donc qu'il est temps de tout reprendre à zéro et c'est là que
je découvre (car je suis néophyte sur ces questions) :
* FreeIPA qui créer un "AD-like" pour machines Linux.
* Samba v4 qui intègre désormais son annuaire LDAP et se comporte comme
un Active Directory.
* D'autres dont j'avais déjà entendu parler sans jamais les utiliser :
Kerberos et RADIUS/DIAMETER.
J'envisage donc l'architecture suivante :
* Application maison pour stocker (dans une base SQL quelconque) les
utilisateurs/groupes (+ des infos spécifiques complexes) ET qui
alimente l'annuaire avec seulement les infos pertinentes/standardisées
(le schéma LDAP sera plus simple et une API REST pourra exposer les
autres infos aux applications si besoin).
* Serveur d'annuaire LDAP (OpenLDAP, 389DS, le 389DS de FreeIPA, le LDAP
de Samba4 ?).
* Serveur(s) de fichiers (TrueNAS, OpenMediaVault, etc.) : qui se
connectent à l'annuaire LDAP (ou autre forme de confiance/délégation).
Si je prends le bonus "domaine" : que me faudrait-il ? Samba4 seul
suffirait pour les stations de travail Windows ET Ubuntu ou bien il
faudrait Samba4+FreeIPA pour tout couvrir ?
L'idée d'avoir un AD Samba4 qui tourne sur Internet ne me plait guère.
Et comme les serveurs de fichiers seront de toutes façons dans le LAN,
je pense plutôt installer Samba4 en LAN et mettre en place, juste pour
les applications web, une copie (synchro à sens unique) vers un OpenLDAP
ouvert sur Internet (sans les attributs samba/domaine).
Je suis ouvert à :
* toute correction si j'ai dit une énormité sans nom
* et surtout à toute suggestion d'outil que je n'aurais pas trouvé qui
m'aide dans ma quête.
Merci
[View Less]
Le 17/01/2024 à 10:49, Benoit Lair via FRsAG a écrit :
> Comme proposer XCP-NG comme distro de virtualisation ? :D
Ça ferait connaître Xen...
--
Stéphane Rivière
Ile d'Oléron - France
Salut les gens,
J'ai une question selinux "un peu" avancée. D'avance je m'excuse parce que
oui, j'aurais dû investir du temps dans selinux il y a bien longtemps
(qu'on aime ou pas, je devrais être capable de répondre à ce genre de
question...)
J'ai lu de la doc, regardé des tuto, je maîtrise selinux pour apache... Mon
problème c'est une appli métier dans une arborescence dédiée. Quand on
active selinux en enforcing, elle ne démarre plus.
ls -lZ /application
drwxrwxr-x. 3 user group system_u:…
[View More]object_r:unlabeled_t:s0 40 Jan 11 17:56
/application/
restorecon -n -v /application/
Would relabel /application from system_u:object_r:unlabeled_t:s0 to
system_u:object_r:default_t:s0
ps -eZ | grep -i appli
system_u:system_r:initrc_t:s0 11943 ? 00:00:09 appli
Déjà, question bête, est-ce qu'un restorecon (récursif...) suffirait à ce
que l'appli démarre ? initrc_t vers default_t ?
Ensuite, surtout quelle est la meilleur marche à suivre, je suppose qu'il
faut a minima ajouter un contexte, genre
semanage fcontext -a -t unconfined_t '/application(/.*)?'
Mais dans ce cas précis si on veut faire du selinux "pour de vrai" est-ce
qu'il ne faudrait pas ajouter un type dédié genre mon_appli_t ? et c'est là
où je sèche complètement, que faudrait-il faire en plus sur le user, sur le
process pour que ça fonctionne bien ?
Merci d'avance pour toute aide :)
Jérémy
[View Less]
Bonjour à tous,
Pour commencer, mes meilleurs vœux pour 2024.
Je suis actuellement en train de maquetter un cluster Mysql NDB.
De ce que j ai pu voir dans les différentes doc, il semblerait que les data
et index sont stockés en RAM. (Je me trompe peut être).
Le problème dans ce cas est une saturation de la RAM et de devoir ensuite
upgrader le serveur afin de rajouter de la RAM.
Est-ce que quelqu'un dans la liste aurait déjà travaillé sur cette techno ?
Si oui, comment est il possible de …
[View More]ne pas utiliser la RAM pour les index et
data?
Merci d avance pour vos conseils/remarques
Anthony
[View Less]
Salut la liste,
Je cherche à trouver une solution plus efficiente que du VPN inter-sites pour gérer des accès à des serveurs de fichiers Synology depuis différents sites d'une association.
Les besoins ne sont pas immenses (usage bureautique principalement - pas trop d'accès concurrents).
Je suis tombé sur Hybrid Share qui, sur papier, présente les avantages d'une solution en ligne, tout en gardant les avantages du sur-site (cache local pour rapidité d'accès, on garde un certaine maitrise de …
[View More]ses données, accès résistant à un perte de connexion internet, sauvegardes locales possibles).
Au prix d'une dépendance à un service proprio.
Est-ce certains d'entre vous ont déjà joué avec?
Quels sont vos retours ?
Est-ce que ça gère bien les verrous fichiers (lock)?
Est-ce qu'il gère de manière censée les situations dans lesquels un ou des sites sont isolés du cloud et continue leur popote pendant ce temps ?
Est-ce qu'il traite les conflits de version?
Merci d'avance de vos retours d'expérience.
Bon week-end à tous,
Jérémie
[View Less]
Bonjour,
Après avoir résolu mon évolution de routeur (sur FrnOG), j'ai besoin de
monter un nouveau serveur de stockage local (NAS).
On a déjà des serveurs de stockage, sous TrueNAS SCALE (la variante
Debian), mais il nous en faudrait un nouveau.
Les besoins utilisateurs sont "simples" :
* Stockage de fichiers accédés en CIFS
* Environ 15 utilisateurs
* Quelques gros fichiers graphiques et vidéos (2/3 monteurs et
graphistes qui travaillent en direct sur le réseau)
Niveau matériel :
* …
[View More]CPU : 1 seul suffira
* 64 Go de RAM ECC
* Capacité disques :
6 HDD LFF/3.5" pour le stockage, 2 HDD/SSD pour le système
* Pas de RAID matériel (cause RAID-Z2 ZFS sur TrueNAS)
* Accès IPMI/BMC/iLO/iDRAC/…
* 2 ports réseau Ethernet Gigabit avec possibilité d'ajout de SFP+
* Double alimentation électrique
* Les rails de montage en rack
* Tous les caddy/tray/tiroirs de disque
* Compatible TrueNAS (carte LSI typiquement)
* **En stock**
Je n'ai pas de préférence quand au fabriquant (j'ai déjà du HP et du Dell).
J'avais par exemple trouvé le Supermicro SYS-620P-TRT chez un revendeur
mais il n'était plus en stock le temps de vérifier quelques détails.
Vu mes besoins (que je trouve modestes mais je peux me tromper), du
refurbished me convient également si ça permet d'avoir accès à du stock.
Donc s'il y a des revendeurs de serveurs, voire des intégrateurs TrueNAS
sur la liste ou dans vos contacts, je prends ;)
Et je prends aussi les conseils sur du TrueNAS utilisé pour des fichiers
vidéos si vous en avez.
Merci
--
Duvergier Claude
[View Less]
Bonjour Fabien, la liste,
Petit retour d'expérience d'un labo de recherche sur EOS que Gilles a mentionné.
je gère 2 instances EOS dans 2 contextes d'utilisation différents :
* Stockage de données scientifique d'un laboratoire de recherche : Stockage de datasets de données de CMS (https://cms.cern) et de nos autres expériences internes, supportant à la fois les protocoles de transfert de données (XRootD and HTTPS) entre datacenters de la grille WLCG (https://wlcg.web.cern.ch/) et EGI (…
[View More]https://www.egi.eu/) et à la fois des accès locaux (type POSIX via FuseX)
* Stockage Online des données qui sortent d'une expérience, sorte de buffer proche du détecteur, pour que les données soient calibrées / traitées / filtrées / nettoyées sur place avant d'être exportées vers les centres de calcul CERN/IN2P3/FNAL...
Authentification supportée : kerberos et certificats x509 depuis longtemps, OIDC plus récemment
Au niveau du stockage, c'est très versatile : sur du RAID matériel ou logiciel (pas conseillé), sur du JBOD. Tu peux aussi assurer de la redondance via des réplicas ou alors de l'erasure coding, par répertoire. par exemple /eos/stockage/cycle1/exp1/processed en réplica 2 et /eos/stockage/cycle1/exp1/raw en erasure coding. L'erasure coding prends tout son sens sur du JBOD puisque tu assures la redondance des données sur des disques différents et sur des serveurs de stockage différents avec un overhead faible.
Quotas par utilisateur, par groupe, par projet (arborescence)
Comme stockage distribué c'est bien pensé puisque les meta-données sont distribuées dans QuarkDB (KV store backend en haute dispo) et si tu utilises l'erasure coding avec un nb de FST (serveurs de stockage) > N+P, alors tu continues à avoir accès à tes données même si tu perds un FST.
Au niveau de tes critères :
* open source
* scalable natif. + il y a de serveurs de stockage, mieux c'est. Au niveau du roulement des serveurs : drain du serveur à remplacer (1 commande à taper), on revient + tard quand il a fini de déplacer les n TB vers les autres serveurs de stockage, on traite les cas particuliers, on le sort de prod, on le remplace et le nouveau serveur entré en prod récupère sa part comme avec CEPH.
* interfacé avec les bandes via un autre de leurs soft CTA (https://cta.web.cern.ch/cta)
* Pas trop complexe / usine à gaz : un peu complexe quand même quand on veut utiliser les fonctionnalités ou modifier le comportement des sous composants, mais une fois qu'on a compris les briques de bases (Namespace MGM + persistance des meta-données dans QuarkDB + stockage des données dans les FST), le reste est de la routine de services de stockage.
Au niveau des performances, aucun problème pour saturer des liens a n*10Gb/s, même pour des petits fichiers.
NB : Prochain workshop EOS en mars 2024 [ https://indico.cern.ch/event/1353101/ | https://indico.cern.ch/event/1353101/ ]
Cordialement
Denis
----- Le 3 Jan 24, à 20:43, Gilles Mocellin <gilles.mocellin(a)nuagelibre.org> a écrit :
Le mercredi 3 janvier 2024, 18:42:10 CET Fabien Sirjean a écrit :
BQ_BEGIN
Bonsoir la liste,
En ce début d'année, je me creuse la cervelle autour des sauvegardes,
alors je vous partage mes questionnements :)
Petit topo du contexte : je bosse dans un centre de recherche
scientifique, dont les instruments produisent pas mal de données.
Ces données sorties des instruments "raw" sont ensuite traitées et
transformées pour analyse (données "processed"), en vue de publier des
papiers de recherche.
Les données raw sont produites pendant des "cycles" de fonctionnement (3
à 4 cycles par an) et l'approche est WORM (c'est la valeur produite par
l'institut, les données raw sont impossibles à reproduire).
Les données processed sont produites en continu selon l'activité des
scientifiques, parfois plusieurs années après la production des données
raw associées. Les données processed sont recalculables à partir des
données raw, mais ça peut être coûteux (temps et puissance de calcul).
On a actuellement 1.3 PiB de data (raw+processed) sur notre stockage
primaire. Ça tourne sur une infra Ceph en triple réplication,
grosso-merdo ça fait 600 disques mécaniques de 20TB.
Évidemment on est sur un scénario loin d'être idéal pour le stockage :
on a principalement de très nombreux petits fichiers (<128 KB). Mais on
a aussi des fichiers >1TB, sinon c'est pas drôle...
Si vous voulez une idée de la tête de l'arborescence, ça ressemble à ça
: https://pastebin.com/vVF31cv4
On aimerait changer de solution de backup pour ces données, au profit
d'un truc qui coche au moins plusieurs de ces critères (tous, je sens
que ça va être compliqué) :
* Open Source
* Pas trop complexe / usine à gaz
* Scalable (marre de changer tout le matos tous les 4-5 ans parce que
y'a plus de place...)
* Qui permette de gérer indépendamment le backup des données "raw" (ça
bouge pas mais on veut vraiment pas les perdre) des données
"processed" (ça bouge, on peut se permettre de les perdre, on peut
réduire la rétention pour les vieux cycles)
* Qui fasse pas nécessairement tourner des tas de disques en
permanence (les données raw pourraient très bien être sur de la
bande magnétique, vu qu'elles ne bougent plus du tout une fois le
cycle terminé)
* Qui coûte un prix raisonnable
Jusqu'ici on fait du bacula et du rsync sur ZFS (un serveur avec plein
de baies JBOD en SCSI). Mais c'est plein, et il faut donc faire évoluer
tout ça.
Le plus simple pour nous serait probablement de continuer avec la même
solution sur le plan logiciel, en passant sur un stockage distribué
comme Ceph pour avoir la scalabilité souhaitée.
Mais ça fait la même techno pour le stockage primaire et le backup (pas
top), et Ceph n'est pas très efficient (même si on peut faire des choses
en Erasure Coding). De plus, ça ne permet pas d'intégrer des bandes
magnétiques dans l'équation.
Voilà, n'hésitez pas à partager vos avis et expériences. Notamment je
n'ai jamais bossé avec de la bande magnétique, je me questionne pas mal
sur la pertinence et la facilité de gestion.
Si des commerciaux passent par là : vous pouvez me contacter sur mon
mail pro (sirjean(a)ill.fr) mais je suis plutôt dans une phase
exploratoire (il y aura de toutes façon un appel d'offres).
Merci pour vos retours, et à bientôt :)
Fabien
Bonjour,
En restant dans le domaine de la recherche, on a évidemment le CERN qui peut
être pris comme référence / inspiration.
https://home.cern/science/computing/storage
Ils ont du Ceph, mais à priori, pas pour les données des expériences, surement
pour leur Cloud OpenStack.
Leur stockage est fait maison (EOS https://eos-web.web.cern.ch/eos-web/)
Et le stockage long terme, archivage est sur bande.
PS:
Tien, je vois que EOS a plusieurs backends de stockage à proprement dit, et
qu'on y retrouve Ceph aussi, en mode RADOS direct ou CephFS...
_______________________________________________
Liste de diffusion du %(real_name)s
http://www.frsag.org/
BQ_END
--
[ https://www.ip2i.in2p3.fr/ ]
Denis PUGNÈRE
Institut de Physique des 2 Infinis de Lyon
Campus LyonTech la Doua, bâtiment Dirac
4 rue Enrico Fermi , 69622 Villeurbanne
+33 (0) 7 89 32 12 46
[ https://twitter.com/ip2ilyon | ] [ https://facebook.com/IP2ILyon ] [ https://www.ip2i.in2p3.fr/ | https://www.ip2i.in2p3.fr ]
[View Less]