mardi 27 août 2013

Back to basic : maîtriser le multitâche dans une session en mode texte


Bon, je sais, je vais passer pour un vieux schnoque mais voilà : on n'a pas toujours la possibilité d'avoir du multitâche (surtout en SSH sur un serveur dans une DMZ ou connecté en directe sur une console au cul d'un serveur) mais c'est bien pratique de pouvoir passer d'une tâche à une autre. Je ne prétends pas tout connaître mais, je vais vous livrer quelques petits trucs que j'utilise (ou que j'ai eu utilisé) dans le domaine.

Les terminaux virtuels

Je pense qu'il s'agit du mode le plus simple et qu'on privilégiera dans le cas où vous êtes sur une machine Linux sans connexion X. Ici, rien de bien compliqué, vous pouvez passer d'un terminal à un autre en utilisant la combinaison de touche Alt+Fn (il faut rajouter Ctrl dans le cas où vous avez une connexion sous X).

Par ce mécanisme, vous pouvez tout à fait ouvrir un premier terminal puis éditer un fichier à l'aide de vi (ou emacs) et, sur un autre terminal, parcourir une arborescence (par exemple). Dans ma jeunesse (je vous l'avais dit que je passerai pour un vieux teuteu), j'avais l'habitude de lancer l'excellent mpg123 en arrière plan pour écouter mes mp3s sans risque de voir ma session X me planter ma lecture.

Petit problème, si vous travaillé en SSH, ça ne fonctionne plus et en plus de ça, il n'est pas dit que votre vieille version d'Unix propriétaire le gère (en même temps, y'a t'il des fous prêt à travailler avec un M4000 ou autre station à base de Power7 posé sur son bureau ...).

Gérer des tâches en ligne de commande avec votre shell

Voilà, vous êtes maintenant connecté en SSH sur votre serveur, vous êtes en train d'éditer votre fichier et vous avez besoin de jeter un coup d'oeil rapide sur le contenu d'un autre fichier. Bien sûr, il est toujours possible de le faire avec vi (en lançant un shell avec !bash) mais c'est loin d'être pratique. Pourtant il y a beaucoup plus simple : l'utilisation des tâches en shell.

C'est ici qu'entre en scène la combinaison de touche Ctrl+Z. Quand vous faîtes cette combinaison de touche, votre programme en cours d'exécution se retrouve mis en pause et vous vous retrouvez directement sur votre shell qui était resté tranquillement en arrière plan. Ci-dessous voici ce que nous obtenons en faisant cette combinaison de touche dans vi :

[yperre]/home/yannig> vi toto

[1]+  Stopped                 vi toto
[yperre]/home/yannig>

Une fois que vous avez réalisé l'opération que vous vouliez, vous voulez revenir à votre tâche précédente. Tapez simplement la commande fg (foreground) et vous voici de retour dans votre éditeur comme si rien ne s'était passé.

Bon mais voilà, maintenant, vous voulez éditer un second fichier en parallèle. Du coup, vous passer votre première instance vi en arrière plan et vous éditer le fichier titi. Et tout d'un coup, vous voulez revenir à votre première tâche d'édition. Problème, avec fg, vous revenez à la dernière commande que vous avez lancé. Dans ce cas, il suffit de taper %1, %2 etc. en fonction du numéro de la tâche que vous voulez rebasculer en premier plan.

Maintenant, vous êtes en train d'expérimenter un nouveau produit (tomcat, elasticsearch, logstash etc.) mais comme souvent, le shell est mal foutu et se bloque à l'exécution. Problème, vous avez toujours envie de consulter un fichier et vous êtes un peu bloqué. En effet, lorsque vous faîtes Ctrl-Z, votre process est en pause et ne traite plus les requêtes entrante. C'est là qu'entre en scène l'ami bg (background).

Comme vous êtes joyeux et que vous avez lancé plusieurs process en arrière plan et maintenant vous voulez en tuer un ou deux. Alors vous avez toujours la solution du bon vieux kill . Mais sinon, vous pouvez également utiliser kill %1.

Pour conclure

Loin de moi l'idée d'avoir présenter toutes les possibilités dans le domaine. Vous pourrez également vous tourner vers l'utilitaire screen qui a également l'avantage de pouvoir faire persister votre session même si votre connexion SSH se plante lamentablement. Je ne saurais que trop vous conseiller de l'utilisier dans le cas d'un long traitement critique (migration/import de base, recopie de données, mise à jour etc).

vendredi 26 juillet 2013

Installation d'application Ruby on Rails sans connexion internet

Bizarrement, je n'avais jamais trop travaillé sur les applications écrit en rails et par conséquent, je n'avais jamais eu affaire aux désagréments qui vont avec. Bien sûr, je ne parle pas du langage en lui-même ni des frameworks qui vont avec. Non, c'est plutôt dans la gestion des gems avec le fameux utilitaires bundler.

Oui, parce qu'il faut savoir c'est que, si vous avez une connexion internet, ce brave ruby va gérer tout seul ses dépendances et compagnie. Par contre, si vous êtes comme moi dans une DMZ dans laquelle il n'est même pas question d'entendre parler de flux sortant sur un proxy, vous allez vite vous sentir seul.

C'est donc après avoir bien galéré que je me suis dit qu'une petite entrée sur mon blog aurait un double bénéfice (au delà de l'aspect purement narcissique) : me servir de pense bête et vous servir à vous les nombreux lecteurs de ce blog.

Par la suite, nous travaillerons sur l'installation de l'application Kibana (pour faire de la recherche de grosses données dans le nuage, euh, je veux dire, du scoring de big data dans le cloud).

Au début il vous faut quand même une connexion internet

Pour l'installation initiale de votre application, il vous faudra au moins une connexion internet pour commencer. Si vous n'avez pas accès directement à internet, vous pouvez toujours passer par un proxy. Pour cela, il faut exporter la valeur du proxy dans la variable http_proxy :

export http_proxy=http://user:mdp@proxy:port

Une fois ceci fait, vous pouvez lancer le bundle de votre application. Mais vous vous en doutez, avant de le faire il faut installer bundler. A noter que vous devrez installer les packages ruby et rubygems (si vous êtes sous Redhat, ça se fait très rapidement avec la commande yum install ruby rubygems). L'installation de bundler se fait simplement avec la commande suivante :

gem install bundler

Une fois que bundler est installé, nous allons pouvoir maintenant récupérer les gems pour notre application. Prenons le cas de l'application Kibana. Pour se faire, il vous faudra :
  • Décompresser votre application ;
  • Se rendre dans le répertoire décompressé et lancer la commande suivante :
bundle install

De là, l'ami bundle va se connecter sur internet et récupérer toutes les dépendances dont nous avons besoin.

Création d'un bundle

Maintenant que notre application tourne, nous allons maintenant pouvoir faire un bundle de nos dépendances afin de les recopier sur nos serveurs de production qui n'ont pas du tout de connexion internet (les pauvres ...). L'opération est très simple et se fait avec la commande suivante :

bundle package
Your Gemfile contains path and git blablabla.
Resolving dependencies...
Using rake (10.1.0)
Using daemons (1.1.9)
[...]
Your bundle is complete! blablabla.
Updating files in vendor/cache

De là, l'ami bundle devrait vous faire un répertoire vendor/cache avec les fameux gems à installer.

Installation en production

Il ne vous reste plus qu'à faire un transfert de ce répertoire dans le répertoire de l'application sur vos serveurs de production et de lancer la commande suivante :

bundle install --local

Là, bundle devrait comprendre qu'il faut qu'il utilise le contenu du répertoire vendor/cache. Il ne vous restera plus qu'à prendre un café à ma santé.

mercredi 24 juillet 2013

Packager NSClient++ sous Windows (64 bits) à l'aide de puppet

Bon, pas la peine d'en rajouter sur le titre, j'ai honte. Mais bon voilà, j'avais commencé à vouloir packager NSClient++ avec l'OS alternatif propriétaire (avec ce plugin), et je me suis rendu compte que le package NSClient++ était réinstallé tout le temps. J'ai donc voulu savoir pourquoi.

En effet, en lançant l'application du catalogue sur mon noeud, j'avais systématiquement ce message :

Notice: /Stage[main]/Nscp/Package[nscp]/ensure: created
Notice: /Stage[main]/Nscp/File[C:\Program Files\NSClient++\nsclient.ini]/content:

Info: /Stage[main]/Nscp/File[C:\Program Files\NSClient++\nsclient.ini]: Filebucketed C:/Program Files/NSClient++/nsclient.ini to main with sum e3daba1
4bc76433649a9c4af706042ac
Notice: /Stage[main]/Nscp/File[C:\Program Files\NSClient++\nsclient.ini]/content: content changed '{md5}e3daba14bc76433649a9c4af706042ac' to '{md5}38b
2bb3dbe8530f33d983ccfd8394628'
Info: /Stage[main]/Nscp/File[C:\Program Files\NSClient++\nsclient.ini]: Scheduling refresh of Service[nscp]
Notice: /Stage[main]/Nscp/Service[nscp]: Triggered 'refresh' from 1 events
Notice: Finished catalog run in 11.64 seconds

En gros, mon package nscp était constamment réinstallé et ce dernier venait également mettre à jour le fichier nsclient.ini. Je me suis donc dit que le package n'avait pas le bon nom et qu'il fallait que je trouve le bon. Après avoir essayé NSClient++, NSClientpp, j'en ai eu marre de chercher et je me suis posé la question de savoir comment avoir le nom de ce fameux package. C'est là que j'ai découvert l'existence de la commande puppet resource package. Ci-dessous un extrait de la sortie de cette commande :

[...]
package { 'NSClient++ (x64)':
  ensure => 'installed',
}
package { 'Puppet Enterprise':
  ensure => 'installed',
}
[...]

J'avais enfin le nom de mon package ('NSClient++ (x64)') et du coup, NSClient arrêtait de s'installer systématiquement et donc, le fichier nsclient.ini n'était plus à mettre à jour. En gros, mon agent n'avait plus rien à faire. Bonne nouvelle donc !


lundi 22 juillet 2013

Utilisation de Puppet sous AIX pour la gestion des logicals volumes

Depuis quelques temps, j'ai découvert un nouveau sujet d'amusement : Puppet. Le produit est particulièrement intéressant et j'ai commencé à travailler sur un POC impliquant des agents pour différents OS (AIX, Linux et bien sûr Windows).

C'est à cette occasion que j'ai découvert l'existence de Puppet Forge et notamment l'excellente extension permettant de gérer les volumes groupes de Linux (extension lvm). Suite à ça j'ai voulu disposer de la même chose pour AIX. Au début, j'ai voulu implémenter ça directement dans le module lvm mais devant le travail que ça représentait, j'ai préféré faire quelque chose de spécifique mais surtout de plus simple. Je verrai plus tard pour faire ça comme il faut :)

Cette classe s'utilise sous la forme de module. Il vous faut donc créer un répertoire /etc/puppet/modules/aix avec un sous répertoire manifests:
mkdir -p /etc/puppet/modules/aix/manifests
Créer ensuite le fichier aix/manifests/logical_volume.pp avec le contenu suivant :

# Handle AIX LVM
define aix::logical_volume(
  $mount_point,
  $ensure = "present",
  $vg = "rootvg",
  $size = "",
  $lv_options = "",
  $fs_options = ""
) {

  $lv_name = $title
  $fs_type = "jfs2"

  case $ensure {
    # Clean up the whole chain.
    cleaned: {
        mount { $mount_point: ensure => "unmounted",
                atboot=> false, device => "/dev/$lv_name" } ->
        exec {"/usr/sbin/rmfs /dev/$lv_name ":
            onlyif => "/bin/test -n \"`/usr/sbin/lsfs $mount_point 2> /dev/null`\"",
        }
    }
    # Create the whole FS
    /^(present|created)$/: {
        # Creation du FS avec un nombre de block = 1
        exec {"/usr/sbin/mklv -t$fs_type -y $lv_name $options $vg 1":
            onlyif => "/bin/test ! -b /dev/$lv_name"
        } ->
        exec {"/usr/sbin/crfs -v$fs_type -d $lv_name -m $mount_point $options -A yes -a logname='INLINE'":
            onlyif => "/bin/test -z \"`/usr/sbin/lsfs $mount_point 2> /dev/null`\"",
        } ->
        mount { $mount_point: ensure => "mounted", atboot=> true, device => "/dev/$lv_name" }
        case $size {
            /^(\d+)([KMGT])$/: {
                $size_hash = { "K" => 1, "M" => 1024, "G" => 1048576, "T" => 1073741824 }
                $kilo_size = $1 * $size_hash[$2]
                $block_size = $kilo_size * 2
                exec {"/usr/sbin/chfs -a size=$size $mount_point":
                    onlyif => "/bin/test ! \"`/usr/sbin/lsfs $mount_point | /usr/bin/awk '/$lv_name/ { print \$5 }'`\" = \"$block_size\"",
                    require => Mount[$mount_point]
                }
            }
            /^\s*$/: { }
            default: {
                fail ( 'size is not valid (eg: 1G, 256M, 1T etc.)' )
            }
        }
    }
    default: {
        fail ( 'aix::logical_volume: ensure parameter can only be set to cleaned or present/created' )
    }
  }
}
De là, vous pourrez l'utiliser sous cette forme dans une déclaration de noeud :
node 'machineaix' {
  aix::logical_volume { "test":
      mount_point => "/test",
      size => "1G"
  }
}

Cette merveille a été testé avec succès sous AIX 7.1 et devrait fonctionner sans problème sous AIX 5.3 et 6.1.

vendredi 21 juin 2013

Faire sauter son mot de passe Windows

Si comme moi vous utilisez un ordinateur en dual boot et que ça fait à peu près 1 an 1/2 que vous ne vous êtes pas connecté sur votre compte Windows, vous avez certainement dû l'oublier. Et quand vous devez dans le même temps faire une procédure d'installation sur ce type d'OS et que vous n'avez aucune espèce d'idée de comment faire ça (ni les CD de boot d'ailleurs), vous serez sûrement content d'apprendre que vous pouvez faire ça avec un super utilitaire en ligne de commande : j'ai nommé l'ami chntpw.

Première chose, on va l'installer :

apt-get install chntpw

Quelques secondes plus tard, vous devriez être prêt pour la suite.

Mais où est passé l'ami SAM

Chez Unix, les hash des mots de passe sont dans /etc/shadow. Sous Windows, c'est l'ami SAM qui un rôle à peu près équivalent (en tout cas, il contient les hashs des mots de passes utilisateurs).

Avant toute chose (si ce n'est déjà fait), on va monter notre lecteur Windows dans /mnt :

mount /dev/sda2 /mnt

De là, il faudra se rendre dans le répertoire /mnt/Windows/System32/config où nous pourrons commencer à torturer l'ami SAM.

Première chose, nous allons afficher les comptes déclaré dans notre beau fichier SAM :
# chntpw -l SAM
[...]
* SAM policy limits:
Failed logins before lockout is: 0
Minimum password length        : 0
Password history count         : 0
| RID -|------- Username ---------| Admin? |- Lock? --|
| 01f4 | Administrator            | ADMIN  | dis/lock |
| 01f5 | Guest                    |        | dis/lock |
| 03e8 | TOTO2                    | ADMIN  | dis/lock |

Nous voyons ici 3 comptes mais seul TOTO2 nous intéresse (c'est mon compte). Pour se faire, relançons chntpw avec en paramètre l'utilisateur à modifier :

chntpw -u TOTO2 SAM

Ici, chntpw devrait nous proposer plusieurs choix avec notamment la possibilité de supprimer le mot de passe (choix n°1). chntpw vous demandera une confirmation pour écrire le fichier sur le disque. Répondez oui, que vous êtes un gros gueudin qui n'a peur de rien. Sinon, si vous êtes un peu plus raisonnable, faîtes non et faîtes une sauvegarde avant de tout péter.

Reste plus qu'à démonter le FS du Windows et redémarrer dessus pour vérifier que la manœuvre a bien fonctionné. Si tout c'est bien passé, vous devriez être en mesure de démarrer votre session avec le nouveau mot de passe. Pirate !

jeudi 13 juin 2013

Administration d'un serveur SVN à l'aide de SVN

Ma vie trépidante d'administrateur m'a amené dernièrement à mettre en place un serveur SVN en place (en utilisant le module Apache couplé avec authentification LDAP) et surtout l'isolement de ce serveur dans une bulle derrière des firewalls.

D'un côté c'est vrai que c'est bien la sécurité et tout ça, mais de l'autre, à chaque fois que j'ai envi de modifier un truc sur mon serveur, je suis un peu obligé de me connecter via un VPN + tunnel SSH. Comme chacun sait, je suis un gros feignant et c'est pas par gaîté de coeur que je m'y connecte. C'est donc assez naturellement que je me suis dit : et si j'utilisais un repository SVN pour faire mon administration ? Diabolique non ? De plus je gagnais instantanément un suivi de qui modifié quoi sur mon serveur SVN. Très pratique pour savoir qui taper en cas de problème.

Création du repos adminsvn

La première étape a été de créer un repository sur mon serveur qui allait me servir à ça. Pour cela, rien de plus simple, on crée un repository SVN :
$ svnadmin create /var/svn/adminsvn
On crée ensuite un trunk pour faire jolie ainsi qu'un sous-répertoire admin :
$ svn mkdir --parent file:///var/svn/adminsvn/trunk/admin -m "Création d'un trunk/admin"
Nous allons maintenant alimenter le fichier /etc/httpd/svn.d/droits-svn.conf afin de protéger le repository d'administration :
[groups]
admins_svn = yannig,cnorris

[/]
* = rw

[adminsvn:/]
# Personne ne peut lire le contenu de ce repository
* =
# Par contre, les admins SVN ont le droit de tout faire
@admins_svn = rw
Alimentons maintenant nos utilisateurs dans le fichier svn.passwd :
$ htpasswd -nb yannig mdpdeyannig > /etc/httpd/svn.d/svn.passwd
$ htpasswd -nb cnorris chucknorrisnapasbesoindemdp >> /etc/httpd/svn.d/svn.passwd
Ajoutons maintenant ces fichiers dans le repository avec la commande suivante :
$ svn add svn.passwd droits-svn.conf

Mise en place du mécanisme de post commit

Procédons maintenant à un checkout de ce repository SVN dans un coin de notre serveur (en tant qu'utilisateur apache ou www-data selon que vous soyez sous RH ou Debian like) :
$ svn co file:///var/svn/adminsvn/trunk/admin /etc/httpd/svn.d
Nous allons maintenant mettre en place un mécanisme de mise à jour de ce checkout. Rendez-vous dans le répertoire /var/svn/adminsvn/hooks et créons un fichier shell post-commit avec la commande suivante :
echo "svn up /etc/httpd/svn.d" > post-commit
chmod +x post-commit
Comme vous pouvez le voir, le script n'est pas super complexe.

Si vous n'avez pas utiliser le bon utilisateur pour faire le checkout, vous pouvez modifier les droits avec la commandes suivantes :
chown -R apache:apache /etc/httpd/svn.d

Déclaration d'un ensemble de repository dans apache

Déclarons maintenant la racine contenant le repository dans apache en créant le fichier /etc/httpd/conf.d/svn.conf avec le contenu suivant :
<Location /svn>
  DAV svn
  SVNParentPath /var/svn/
  SVNListParentPath On

  Options +Indexes
  AuthType Basic
  AuthName "SVN"

  # Gestion authentification
  AuthBasicProvider file
  AuthzSVNAccessFile /etc/httpd/svn.d/droits-svn.conf
  AuthUserFile /etc/httpd/svn.d/svn.passwd
  Require valid-user
</Location>
Un arrêt/relance de l'ami Apache et nous voilà prêt pour la suite.

NB : Il est bien sûr évidant que vous devez disposer de l'extension mod_dav_svn. Sous RHEL, vous devrez lancer la commande yum suivante pour procéder à l'installation :
yum install mod_dav_svn
Sous Debian, ce module s'appelle libapache2-svn. Vous devrez dans ce cas utiliser la commande suivante :
apt-get install libapache2-svn

Test de notre mécanisme

Cette partie est plus simple puisqu'elle va consister à faire des commits dans notre repository. Pour se faire, vous devez donc vous munir d'un client SVN. En tant que vieux barbu, je fais ça en ligne de commande depuis mon poste Linux :
svn co --username yannig http://monserveursvn/svn/adminsvn/trunk ~/adminsvn
Éditons maintenant votre fichier droits-svn.conf de la manière qu'il nous plaira et lançons le commit :
$ svn diff
Index: changelog.txt
===================================================================
--- droits-svn.conf       (revision 1)
+++ droits-svn.conf       (working copy)
@@ -1,3 +1,4 @@
-admins_svn = yannig,cnorris
+admins_svn = yannig,cnorris,nobody

[/]
* = rw

$ svn ci -m "Ajout de l'utilisateur nobody."
Sending        droits-svn.conf
Transmitting file data .
Committed revision 2.
Allons maintenant faire un tour sur notre serveur pour vérifier que le fichier droits-svn.conf a bien été mis à jour :
$ grep nobody /etc/httpd/svn.d/droits-svn.conf
admins_svn = yannig,cnorris,nobody
La modification a bien été prise en compte. Le mécanisme fonctionne bien comme prévu !

jeudi 30 mai 2013

Installation de Debian squeeze/OpenMediaVault sur PowerEdge R520 et baie Powervault MD1200 Base

Ces derniers temps, j'ai eu à mettre en place une Debian squeeze sur un Dell PowerEdge R520 avec une baie PowerVault MD1200. Comme je suis un mec super sympa, je me suis dit que j'allais raconter aux gens comment ça c'était passé.

Pour mémoire, le pourquoi de la distribution squeeze alors que la wheezy vient de sortir est un choix du client, ce dernier voulant utiliser l'appliance logiciel OpenMediaVault.

Première modification que j'ai apporté concerne la gestion du démarrage. En effet, ce serveur supporte UEFI mais squeeze ne le gère pas. Plutôt que de me prendre la tête sur le sujet à vouloir le faire fonctionner, j'ai décidé de passer le démarrage en mode BIOS.

J'ai ensuite utilisé l'interface BIOS de mon serveur afin de configurer mes deux RAIDs à savoir :

Première bonne surprise : la configuration du RAID se fait en arrière plan et il est possible de faire l'installation sans se préoccuper de la construction (Youpi ! je n'ai pas 3 jours à attendre que ça soit construit !).

Pour mémoire, voici les références de lspci de ces deux cartes :
# lspci | grep -i raid
01:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 9240 (rev 03)
0a:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS TB (rev 05)
Toujours pour mémoire, je vous donne le nom commercial de Dell pour ces cartes :

  • La première à pour petit nom PERC H310 Mini ;
  • La seconde PERC H810 Adapter.

Debian squeeze : premier essai

Confiant dans ma Debian squeeze, j'ai d'abord gravé l'image iso 6.0.7 avec les firmwares. Cette image est téléchargeable à l'emplacement suivant : Debian 6.0.7 incluant les firmwares.

J'ai ensuite démarré sur un disque USB afin de pouvoir entamer l'installation. Le premier écueil est arrivé au niveau de la gestion de la carte réseau (une Broadcom NetXtreme BCM5720 dual ethernet) puisque cette dernière a refusé de fonctionné (poukrel !).

Pour mémoire voici le résultat de la commande lspci :
# lspci | grep -i ethernet
02:00.0 Ethernet controller: Broadcom Corporation Device 165f
02:00.1 Ethernet controller: Broadcom Corporation Device 165f

Debian squeeze : deuxième essai

Dans mon malheur, cette carte semblait supportée par wheezy. J'ai donc cherché à installer le kernel en version backport. Mais comme vous vous en doutez, quand on a pas de réseau sur une bécane, ça devient vite embêtant de vouloir installer quelque chose. C'est pour cette raison que j'ai cherché une image ISO debian embarquant le kernel en version backport. Mes recherches m'ont donc amené sur cette image : Debian 6.0.4 avec un kernel 3.2.0 embarquant les firmwares.

Me voici maintenant à regraver ma distribution et à relancer mon installation. Bonne suprise, ça passe bien côté réseau.

Par contre, je tombe sur un obscure problème de configuration du clavier (du fait qu'il soit USB ?). Afin de m'en affranchir, je prends une option indiquant que le mapping sera celui du kernel. Je pense que ce problème vient du fait que l'image ISO n'embarquait pas les packages nécessaires pour gérer ça.

Pour mémoire, une fois l'installation terminée, j'ai dû lancer la commande suivante pour configurer le clavier de ma console correctement :
apt-get install console-data
De là, il vous sera demandé les informations concernant votre clavier et tout rentrera dans l'ordre.

Pour le reste, rien à signaler. Sachez simplement que la distribution a reconnu directement les deux RAIDs de la machine et que j'ai pu configurer sans problème mes FS alors que mes RAIDs étaient en cours de construction (super bonne suprise là aussi !).

Pensez bien à upgrader votre distribution à la fin de l'installation !

A noter que lors du premier boot, j'ai tout de même constater une certaine lenteur (on est autour des 3 minutes rien que pour l'OS sans compter les 2 minutes d'initialisation du matériel).

Installation d'openmediavault

L'installation se fait en deux fois. Installons d'abord ces packages :
apt-get install openmediavault-keyring postfix libapache2-mod-php5
On peut ensuite lancer l'installation d'openmediavault de la manière suivante :
apt-get install openmediavault locales
Vous devriez récupérer à ce moment pas mal de package et vous devriez avoir quelques réponses à donner sur la configuration des packages.

Installation de openmanage

Ayant du temps de rab, je me suis dit qu'il pourrait être intéressant d'installer l'application OpenManage de Dell. La configuration se fait en ajoutant des ressources dans le fichier /etc/apt/sources.list. Ci-dessous l'extrait en question :
deb http://linux.dell.com/repo/community/deb/latest /
Il faut ensuite l'installer :
apt-get install srvadmin-all
De là, il vous faut redémarrer votre serveur afin de charger les modules nécessaires à la gestion du matériel.

A noter que par défaut l'interface web d'OpenManage ne se lance pas. On peut le faire la première fois en lançant la commande suivante :
/etc/init.d/dsm_om_connsvc start
Afin que cette dernière se lance automatiquement au démarrage, il est possible de le faire avec la commande suivante :
update-rc.d dsm_om_connsvc defaults
L'accès se fait ensuite au travers l'URL suivante : https://machine:1131

L'interface demande un compte d'administrateur. Par défaut, il est possible d'utiliser le compte root mais il est également possible de rajouter des comptes administrateur.

Si vous êtes allergique à tout interface graphique, sachez qu'il est possible d'observer l'état du matériel avec la commande omreport. A noter que pour obtenir de l'aide, il faut utiliser le paramètre -?.

Pour avoir l'état des disques virtuels RAID, vous pouvez essayer la commande omreport storage vdisk. Ci-dessous un exemple de résultat (avec en paramètre le numéro du contrôleur et celui du disque virtuel) :
# omreport storage vdisk controller=1 vdisk=0
Virtual Disk 0 on Controller PERC H810 Adapter (Slot 4)

Controller PERC H810 Adapter (Slot 4)
ID                        : 0
Status                    : Ok
Name                      : Virtual Disk 0
State                     : Background Initialization
Hot Spare Policy violated : No
Encrypted                 : Not Applicable
Progress                  : 81% complete
Layout                    : RAID-6
Size                      : 25,146.00 GB (27000311906304 bytes)
Device Name               : /dev/sdb
Bus Protocol              : SAS
Media                     : HDD
Read Policy               : Read Ahead
Write Policy              : Write Back
Cache Policy              : Not Applicable
Stripe Element Size       : 64 KB
Disk Cache Policy         : Disabled
Dans le cas présent, on voit que notre disque virtuel est en cours de construction (champ Progress). Une fois cette construction terminée, le champ disparaît en indiquant un état (State) à Ready.

On peut également avoir l'état des cartes réseaux :
# omreport chassis nics
Network Interfaces Information

Physical NIC Interface(s)
Index             : 0
Interface Name    : eth0
Vendor            : Broadcom Corporation
Description       : NetXtreme BCM5720 Gigabit Ethernet PCIe
Connection Status : Connected
Slot              : Embedded

Index             : 1
Interface Name    : eth1
Vendor            : Broadcom Corporation
Description       : NetXtreme BCM5720 Gigabit Ethernet PCIe
Connection Status : Connected
Slot              : Embedded

Team Interface(s)
Index             : 0
Interface Name    : bond0
Vendor            : Linux
Description       : Ethernet Channel Bonding
Redundancy Status : Full

Pour conclure

Vous l'aurez compris, avant l'intervention, j'avais quelques appréhensions sur le support de ce matériel (Dell ne fait aucun support officiel). Comme j'ai été agréablement surpris sur certains points (surtout avec OpenManage), je me permets donc de faire un petit retour d'expérience.

Bref, le matos Dell et la wheezy (avec les firmwares), ça marche, mangez en !