Dossiers

Les 12 tendances technologiques 2013

Un vent d’optimisme souffle sur l’année 2013… En effet, selon Gartner, les dépenses IT dans les entreprises pour la zone EMEA atteindront 1154 milliards de dollars en 2013, en hausse de 1,4 % par rapport aux 1138 Md$ espérés pour 2012. Il faut savoir que les revenus de l’année 2012 sont en chute de 3,6 % par rapport à 2011 pour cette région du monde. La baisse atteint même les 5,9 % pour la seule Europe de l’Ouest. Pour faire face à ces chiffres, la rédaction du site lemondeinformatique.fr a dressé, comme chaque année, une liste des tendances technologiques qui occuperont le devant de la scène en 2013. Ces tendances interviennent dans un contexte particulier où la crise oblige les entreprises à prévoir des solutions pour réduire leurs coûts, mais aussi à développer leur système d’information qui a et aura de plus en plus un impact important sur la croissance des activités de l’entreprise.

Sommaire du dossier :

 

1. Virtualisation de réseau, le SDN bientôt mature

Après les serveurs, le stockage et les postes de travail, la virtualisation s’attaque au réseau. En effet, de plus en plus d’acteurs comme VMware, Brocade, Juniper, HP… peaufinent leur offre d’architecture de virtualisation SDN (Software-Defined Ne (…)

 

2. La 4G dans les starting-blocks

Aujourd’hui, les infrastructures mobiles à très haut débit 4G des opérateurs sont toujours, pour la majorité, en phase de test dans les grandes villes françaises (Orange à Marseille ou Bouygues Telecom à Lyon). Mais, depuis quelques jours, Lyon est l (…)

 

3. La mobilité au service de tous les métiers

Les évolutions technologiques autour de la mobilité (paiement NFC, capteurs embarqués, technologies de reconnaissance d’image, technologie 4G, etc.) ouvrent à de nouvelles opportunités dans l’IT mais aussi dans une multitude de secteurs dont l’autonomie (…)

 

4. L’Open Data : une mine d’or d’informations

L’Open Data consiste essentiellement pour les collectivités locales, les établissements et les grands comptes publics à rendre accessibles leurs données, le plus souvent gratuitement. De ce fait, ces données peuvent ensuite être exploitées et monétisation (…)

 

5. Menaces réelles sur les systèmes industriels de plus en plus connectés

Souvenez-vous l’été dernier de l’attaque du groupe pétrolier Aramco basé en Arabie Saoudite où 30 000 ordinateurs ont été infectés par un virus informatique. Cette attaque a montré à quel point les systèmes d’information industriels (SII) – que l’on (…)

 

6. La bataille des OS mobiles autour des tablettes

Le 26 octobre dernier, Microsoft s’est officiellement engagé dans l’aventure des tablettes tactiles avec la sortie de Windows 8 dont la principale nouveauté, rappelons-le, est l’interface Metro (rebaptisée Modernu UI) inspirée de Windows Phone 7. Mic (…)

 

7. Big data : un traitement nécessaire en temps réel

Les entreprises qui disposent de forts volumes de données auront besoin de fournir des informations en temps réel, c’est le cas du centre de recherche de l’Ifremer, par exemple, qui reçoit une multitude de données en temps réel via ses balises implan (…)

 

8. Stockage : vers des baies tout flash

« Chez Nec IT Platform, les SSD représentent pour l’heure 5 % des supports de stockage, mais elles devraient rapidement augmenter, car elles s’imposent de par leurs remarquables performances. En profitant du bus PCI, les disques SSD s’affranchissent (…)

 

9. La DSI, une entité de plus en plus autonome

Byod (Bring Your Own Device), Cloud Computing, big data, Business Intelligence en temps réel… autant de tendances qui impacteront sur le métier de DSI, son rôle et la gestion de ses équipes. Le service informatique est aujourd’hui de moins en moins (…)

 

10. La mainmise du GPU sur le CPU ?

Le processeur graphique (GPU) est de moins en moins perçu comme un simple accélérateur au processeur central pour le calcul massivement parallèle. Mais, il est en passe de devenir l’élément principal à un point où de plus en plus d’applications tourn (…)

 

11. La démocratisation des « Print Services »

Un véritable bouleversement s’opère dans le domaine de l’impression, c’est l’émergence des « Print Services » poussés par les fabricants d’imprimantes et leurs partenaires distributeurs. Cette approche, déjà très en vogue en Allemagne, consiste à con (…)

 

12. La frénésie autour des app store en entreprise

Plus de 20 000 applications sont créées par semaine dont une grande partie pour les terminaux mobiles sous iOS, Androïd et depuis peu sous Windows Phone 8 et Windows 8. Bien sûr, ces applications sont majoritairement dédiées au grand public, mais un (…)

Virtualisation de réseau, le SDN bientôt mature

Après les serveurs, le stockage et les postes de travail, la virtualisation s’attaque au réseau. En effet, de plus en plus d’acteurs comme VMware, Brocade, Juniper, HP… peaufinent leur offre d’architecture de virtualisation SDN (Software-Defined Networking) dont l’objectif est de proposer une infrastructure réseau dynamique hautement virtualisée de manière à accélérer le déploiement des applications et réduire les cycles de développement. Par exemple, Brocade a acquis récemment Vyatta, un éditeur de solutions SDN Open Source. Outre la fourniture de logiciels réseau Open Source, Vytatta développe des OS réseau à la demande pour le routage, la sécurité et le VPN pour des environnements réseaux virtuels ou physiques et dans le Cloud.

À l’instar de Brocade, Cisco a investi dans le projet Insieme ou encore VMware qui s’est emparé, il y a peu de temps, de la technologie phare de Nicira (société californienne) baptisée Open vSwitch. Le logiciel de Nicira crée une couche d’abstraction entre les serveurs et les équipements réseau, donnant aux entreprises la possibilité de découpler la topologie réseau des équipements, de créer des pools virtualisés de capacité réseau. La solution supporte une grande variété d’interface réseau, commutateurs, appliances, des API réseau et des systèmes de type Fabric.

Autre exemple, le consortium Internet2 a annoncé un réseau de type SDN en 100 Gigabit Ethernet reposant sur le protocole OpenFlow. Le but de cette expérimentation est d’apporter des applications pour traiter les données massives des laboratoires de recherche. Enfin, de son côté, HP va lancer son propre SDN (Software Defined Network) sous la forme d’une appliance de contrôle séparée et des logiciels pour la régulation des flux au sein d’une architecture OpenFlow. HP a aussi dévoilé neuf commutateurs compatibles OpenFlow basés sur sa gamme 3800 actuelle, lancée il y a un an, embarquant le protocole Open Source SDN… 

La 4G dans les starting-blocks

Aujourd’hui, les infrastructures mobiles à très haut débit 4G des opérateurs sont toujours, pour la majorité, en phase de test dans les grandes villes françaises (Orange à Marseille ou Bouygues Telecom à Lyon). Mais, depuis quelques jours, Lyon est la première ville à bénéficier du réseau commercial grand public 4G de l’opérateur SFR avec des tarifs plutôt élevés (49,99€ pour 2 Go par exemple). Selon l’opérateur, d’autres villes suivront dont Montpellier au cours du mois de décembre et les autres en 2013. Bien sûr, hormis SFR, Orange (qui a déjà ouvert son réseau commercial, mais uniquement pour les entreprises dans quelques villes) et Bouygues Telecom seront également prêts à ouvrir commercialement au grand public leur réseau 4G dans les plus grandes agglomérations françaises débute 2013.

Selon Lyon Capitale, la première expérience lyonnaise est intéressante en termes de test des débits. Ainsi, les premiers tests montrent que les débits en téléchargement atteignent 70 Mb/s, ce qui signifie qu’un film de 700 Mo a été récupéré en moins de deux minutes, des performances à faire rougir les abonnées ADSL. En ce qui concerne le débit montant, les mesures du magazine en ligne se situent autour de 8 Mb/s en moyenne. Enfin, pour sa part, le temps de latence est compris entre 30 et 50 millisecondes. Bien sûr, ces mesures devront être à affiner surtout lorsque plusieurs abonnés seront connectés en simultané. Quant au « petit » dernier Free, il pourra tester la 4G sur huit antennes-relais réparties sur Paris et sur Montpellier début 2013. 

La mobilité au service de tous les métiers

Les évolutions technologiques autour de la mobilité (paiement NFC, capteurs embarqués, technologies de reconnaissance d’image, technologie 4G, etc.) ouvrent à de nouvelles opportunités dans l’IT mais aussi dans une multitude de secteurs dont l’automobile, l’agriculture ou encore l’industrie. Prenons l’exemple de Michelin qui va lancer des pneus (gamme X InCity) équipés de capteurs pour suivre la traçabilité. Ces pneus intelligents combinent un système de surveillance de pression des pneus (SSPP) et des puces d’identification par radiofréquence (RFID). De même, de plus en plus d’applications mobiles facilitent au quotidien les agriculteurs.

Par exemple, les puces électroniques, employées dans l’élevage bovin, permettent de fournir aux agriculteurs un certain nombre de renseignements sur leur alimentation, leur suivi médical ou la traite des vaches. En outre, un certain nombre d’applications mobiles visent à rendre la culture des récoltes plus efficace. C’est le cas du système icrop de PepsiCo et de l’Université de Cambridge qui, via une application Smartphone, permet de prédire le rendement des cultures de pommes de terre en photographiant et en analysant les feuilles de la plante et de ce fait, d’optimiser l’irrigation. La mobilité frappe aussi le secteur de l’automobile avec la multiplication d’applications embarquées. Des chercheurs américains et singapouriens ont même mis au point un procédé permettant de connecter une «grappe» d’automobiles pour en faire un réseau capable de s’échanger des données en WiFi.

L’Open Data : une mine d’or d’informations

L’Open Data consiste essentiellement pour les collectivités locales, les établissements et les grands comptes publics à rendre accessibles leurs données, le plus souvent gratuitement. De ce fait, ces données peuvent ensuite être exploitées et monétisées par des entreprises au travers d’applications et de services. À titre indicatif, la Commission Européenne anticipe un impact économique pour l’Open Data en Europe de 140 milliards d’euros par an, un chiffre vertigineux et très optimiste. De son côté, la France via la création du portail data.gouv.fr  en 2011, a ouvert le bal en mettant à la disposition (gratuitement pour le moment) des données publiques dont le nombre de jeux de données avoisine les 350 000 (dont près de 300 000 proviennent en fait de l’Insee).

Plus récemment, en août dernier, la RATP, qui était au départ plutôt réticente à ouvrir ses données publiques, autorise les développeurs à exploiter certaines de ses données dans leurs applications. C’est le cas des positions géographiques des stations du réseau ferré et des correspondances stations/lignes. Autre exemple, la ville de Nantes, qui a ouvert un certain nombre de ses données, a permis à la SSII Ippon Technologies de développer une application mobile Nantes Mobi Parking qui facilite la recherche d’une place libre de parking par les automobilistes nantais. Les données liées à l’Open Data doivent être hébergées et accessibles dans des environnements sécurisés, sans préjuger de la volumétrie et de la consommation réelles de ces données.

Menaces réelles sur les systèmes industriels de plus en plus connectés

Souvenez-vous l’été dernier de l’attaque du groupe pétrolier Aramco basé en Arabie Saoudite où 30 000 ordinateurs ont été infectés par un virus informatique. Cette attaque a montré à quel point les systèmes d’information industriels (SII) – que l’on retrouve dans les usines, les salles techniques des bâtiments le plus souvent gérées par les responsables de production, les services généraux et les agents de maintenance – sont devenus vulnérables. Et pour cause, ils sont aujourd’hui fortement informatisés et interconnectés avec le système d’information global de l’entreprise et donc de plus en plus à l’Internet. De ce fait, ils sont exposés aux mêmes menaces, avec des conséquences potentiellement plus graves.

Face à ce phénomène inquiétant, l’Agence nationale de la sécurité des systèmes d’information (Anssi) met en garde les entreprises industrielles en leur conseillant de vérifier l’isolation de leurs équipements de l’Internet et recommande même de les déconnecter si ceux-ci sont déjà reliés au web. À ce titre, l’Anssi a publié un guide qui met en exergue une méthodologie simple et adaptée pour sécuriser les systèmes industriels des entreprises, illustrée par des situations réelles.

La bataille des OS mobiles autour des tablettes

Le 26 octobre dernier, Microsoft s’est officiellement engagé dans l’aventure des tablettes tactiles avec la sortie de Windows 8 dont la principale nouveauté, rappelons-le, est l’interface Metro (rebaptisée Modernu UI) inspirée de Windows Phone 7. Microsoft arrive ainsi dans un marché fortement dominé par Apple avec ses iPad et Samsung avec ses tablettes Galaxy Tab. Selon IDC, 117,1 millions de tablettes seront livrées dans le monde en 2012 dont 60 % d’iPad. Et pour 2013, le cabinet d’études estime qu’il s’écoulera près de 166 millions d’unités avec, à la clé, une bataille féroce autour des trois plateformes iOS, Android et Windows 8.

Laquelle de ces plateformes pourrait s’imposer dans l’entreprise ? On le sait, la plateforme d’Apple s’est fortement imposée dans l’entreprise en séduisant déjà bon nombre de cadres dirigeants. Elle est pourtant très fermée et les éditeurs sont obligés de venir sur le magasin d’applications Apple pour obtenir une validation. Ce n’est pas le cas du système Androïd, beaucoup plus ouvert, mais le système d’exploitation de Google est très fragmenté. En effet, Androïd compte de nombreuses versions à la fois au niveau du système d’exploitation en lui-même, mais aussi au niveau du matériel où certains fabricants adaptent des versions spécifiques à leurs équipements.

Fort de ce constat, l’arrivée d’un OS multiplateforme comme Windows 8 pourrait trouver sa place dans les entreprises. Windows 8, un OS unique pour les PC de bureau, les ordinateurs portables et les tablettes peut effectivement simplifier les usages de par son interopérabilité avec les systèmes serveur pouvant simplifier l’accès aux ressources de l’entreprise.

Big data : un traitement nécessaire en temps réel

Les entreprises qui disposent de forts volumes de données auront besoin de fournir des informations en temps réel, c’est le cas du centre de recherche de l’Ifremer, par exemple, qui reçoit une multitude de données en temps réel via ses balises implantées un peu partout dans le monde. Cet exemple montre bien que l’environnement applicatif autour du big data doit répondre au mieux aux exigences du temps réel, il est aidé en cela par l’infrastructure à mémoire partagée (technologie In memory) qui permet de traiter des volumes de données importants en mémoire. Ainsi, le traitement In Memory tire parti au mieux des ressources matérielles (processeurs multicoeurs, architecture multiparallèle) et fournit des réponses plus rapidement qu’un système sur disque traditionnel, entre 10 à 1000 fois plus rapide.

SAS utilise la technologie In Memory avec sa fonctionnalité SAS In Memory Analytics, Oracle, également avec Cohérence ou encore SAP avec Hana. Gartner estime que 30 % des applications analytiques pourraient reposer sur la technologie In Memory. Un souci du temps réel qui touche tous les acteurs de la Business Intelligence de Japersoft à Informatica qui a conclu en 2012 un partenariat avec la distribution Hadoop de MapR. L’objectif étant d’analyser les données en même temps qu’elles seront diffusées depuis leur source, et ce, grâce à un connecteur dont la fonction sera d’ingérer les données émises en streaming depuis l’application Ultra Messaging d’Informatica dans une implémentation Hadoop de MapR. Ultra Messaging sera chargé de copier des volumes importants d’entrées de log, d’informations liées aux transactions et d’autres types de contenu mis à jour en continu sur un système de bus de messages, de façon à ce que les données puissent être réutilisées et analysées par d’autres systèmes. De son côté, IBM met en avant son approche temps réel via le streaming avec sa solution InfoSphere Streams. D’autres mettent en avant la puissance du moteur sémantique notamment pour analyser le web en temps réel…

Stockage : vers des baies tout flash

« Chez Nec IT Platform, les SSD représentent pour l’heure 5 % des supports de stockage, mais elles devraient rapidement augmenter, car elles s’imposent de par leurs remarquables performances. En profitant du bus PCI, les disques SSD s’affranchissent des goulets d’étranglement que l’on connaît avec les disques durs », nous avait indiqué Thomas Luquet, responsable marketing produit Datacenter et Cloud Computing chez Nec Europe lors de notre enquête sur le stockage en mai dernier. Fort de ce constat, une approche « baie de stockage tout en flash » est-elle envisageable ? Oui et certains fournisseurs comme Kaminario, Pure Storage, Violin Memory, etc. ont déjà franchi le pas.

Prenons l’exemple de la start-up californienne Nimbus Data. Cette dernière propose un système de stockage entièrement redondant d’une capacité de 10 à 500 To reposant sur des modules flash EMLC (400 ou 800 Go) dotés d’une interface SAS. Ce système utilise un système d’exploitation basé sur Linux avec des fonctions de déduplication, de snapshot, de réplication et de chiffrement. Si le coût au gigaoctet est d’environ 10 dollars, le système se rattrape avec une consommation électrique de 5 watts par téraoctet, ce qui revient à économiser près de 80 % sur les coûts habituels de refroidissement avec des disques durs SAS 15K. Face à ces nouveaux venus qui misent sur le 100 % flash, certains gros fabricants de baies comme EMC, HP  ou NetApp préparent également leurs propres baies de stockage 100 % Flash. Cette tendance, si elle se confirme dans les années à venir, pourrait de nouveau segmenter le marché du stockage avec des solutions haut de gamme avec déduplication et compression et les autres avec la technologie multi-tiering pour distribuer les données sur les supports (flash, SAS ou SATA) en fonction de leur importance.

La DSI, une entité de plus en plus autonome

Byod (Bring Your Own Device), Cloud Computing, big data, Business Intelligence en temps réel… autant de tendances qui impacteront sur le métier de DSI, son rôle et la gestion de ses équipes. Le service informatique est aujourd’hui de moins en moins considéré comme un centre de support et de coût, mais plus comme un centre de service à destination des départements métier. Un défi de taille pour le DSI qui doit se mettre dans la peau d’un fournisseur de services, mais aussi d’informations. Un challenge qui va bien plus loin qu’une refonte technologique de son datacenter.

Plutôt que de consommer uniquement leur temps à faire tourner une infrastructure, les équipes de la DSI devront en parallèle et de manière stratégique répondre davantage aux besoins de l’entreprise. Quant au budget de la direction informatique, il était traditionnellement fixé par les responsables métiers en coordination avec la direction générale sous la forme d’une enveloppe annuelle. À terme, en proposant ses propres services, il disposera, de ce fait, de son propre budget et pourra dégager des bénéfices. Le service informatique s’affranchira également de toutes les étapes administratives très gourmandes en énergie, en moyens humains et en coûts. Les entreprises devront enfin réfléchir à intégrer leur DSI dans leur comité de direction ce qui est encore loin d’être le cas pour la majorité d’entre elles, surtout dans la catégorie des moyennes entreprises (MidMarket).

La mainmise du GPU sur le CPU ?

Le processeur graphique (GPU) est de moins en moins perçu comme un simple accélérateur au processeur central pour le calcul massivement parallèle. Mais, il est en passe de devenir l’élément principal à un point où de plus en plus d’applications tournent sur des GPU et font appel aux CPU pour du simple code généraliste. Le bon exemple est le film Avatar où Weta R&D et Nvidia Research ont développé une solution logicielle de ray tracing pouvant prendre en charge les milliards de polygones requis dans les séquences complexes d’Avatar. De ce fait est né un nouveau moteur de prétraitement, nommé PantaRay qui, avec une exécution sur des GPU, s’est révélé 25 fois plus rapide que sur des CPU.

De même, le séquenceur Ion PGM a été le premier à décoder le génome de la bactérie E.coli, responsable de l’épidémie mortelle en Allemagne grâce à l’accélération des GPU Tesla de Nvidia. On peut citer d’autres exemples comme le dernier James Bond Skyfall où certaines scènes ont exploité massivement des GPU… Dans ce secteur, Nvidia pousse ses pions face à Intel et AMD et leurs processeurs X86. Il faut dire que Nvidia a, depuis des années, beaucoup investi dans son architecture Tesla et surtout dans sa plateforme de développement Cuda. Pour contrecarrer les plans de Nvidia, Intel compte sur ses cartes Xeon Phi issues du projet MIC (Many Integrated Core) plus connu sous le nom de code Knight Corner. MIC se présente sous la forme d’une carte sur laquelle seront regroupés plus de cinquante coeurs de traitement X86 sur une même puce gravée en 22 nanomètres et jusqu’à 8 Go de GDDR5. Cette carte, pilotée par un OS Linux, a d’abord été conçue pour accélérer certaines applications très parallélisées (au-delà du Teraflop pour la double précision).

Les cartes Xeon Phi sont attendues au cours du premier trimestre 2013 chez les partenaires OEM d’Intel comme SGI par exemple avec ses UV2000 et UV20 et feront alors face au GPU (nom de code Kepler) de Nvidia qui sera gravé en 28nm, soit environ trois fois plus puissant et efficace que les actuels GPU (nom de code Fermi). De son côté, AMD parle toujours de son projet Fusion (GPU et CPU dans le même coeur via son initiative HSA (Heterogeneous System Architecture) à l’horizon 2015. En parallèle, AMD vendra aussi en 2014 des puces ARM 64 bits pour serveurs et poussera ses opterons 6300 dotés de 16 coeurs (Piledriver). Dernier mot pour Nvidia qui, pour sa part, évoque son plan baptisé Denver qui intégrerait l’architecture ARM pour la partie CPU dans un GPU.

La démocratisation des « Print Services »

Un véritable bouleversement s’opère dans le domaine de l’impression, c’est l’émergence des « Print Services » poussés par les fabricants d’imprimantes et leurs partenaires distributeurs. Cette approche, déjà très en vogue en Allemagne, consiste à contractualiser une solution d’impression et à ne plus vendre uniquement une cartouche ou une imprimante ou un simple coût à la page. En effet, la forte baisse des revenus de l’impression (de -5  à -15 % selon les technologies et les constructeurs) depuis plusieurs années a conduit les acteurs à revoir leur stratégie en profondeur à l’image de Lexmark qui a décidé de se recentrer sur les solutions d’impression laser milieu et haut de gamme et d’abandonner sa technologie jet d’encre surtout positionnée en entrée de gamme. Il faut bien comprendre qu’aujourd’hui, une solution d’impression n’inclut pas uniquement le matériel et du simple coût à la page, mais elle prend aussi en charge le logiciel, la maintenance, les produits annexes (comme les badgeuses par exemple), l’audit et le conseil…

L’objectif des fabricants d’imprimantes, au travers des « Print Services », est de montrer aux entreprises comment organiser l’information papier ou électronique de façon intelligente et d’en faciliter l’accès à tous leurs collaborateurs, qu’ils soient sédentaires, nomades ou distants. Pour ces dites entreprises, les bénéfices peuvent être multiples avec à la clé une réduction des coûts liés au document, une maîtrise des coûts d’impression, une augmentation de la productivité (cycle de vie des documents), une automatisation des processus d’impression ou encore une diminution des déchets (papier, cartouches, etc.).

La frénésie autour des app store en entreprise

Plus de 20 000 applications sont créées par semaine dont une grande partie pour les terminaux mobiles sous iOS, Androïd et depuis peu sous Windows Phone 8 et Windows 8. Bien sûr, ces applications sont majoritairement dédiées au grand public, mais un certain nombre est destiné au btob comme les programmes liés au collaboratif (agenda, prise de rendez-vous, messagerie, etc.). Ces magasins d’applications mobiles, on connaît les plus célèbres comme l’App Store d’Apple, l’Androïd Market de Google ou encore le Windows Store de Microsoft. Selon Gartner, cette tendance devrait même gagner les entreprises qui en interne mettront en place leur propre magasin d’applications pour leurs salariés, un changement de plus pour la DSI, qui passe du rôle de planificateur centralisé à celui de courtier (entre les utilisateurs et les développeurs).

Selon une enquête publiée en 2012 par Symantec sur la mobilité, les entreprises sont toujours plus séduites à développer des applications mobiles pour leurs lignes métier (59 % des sondés). Résultat : 11 % des sociétés ont déployé un app store d’entreprise, 19 % sont en train de le mettre en oeuvre et 36 % y réfléchissent. On y apprend qu’avec ces « app stores », trois quarts des entreprises pensaient augmenter leur efficacité par rapport à l’usage de telles applications, et 73 % indiquent qu’elles ont déjà atteint cet objectif. En parallèle, des éditeurs comme SAP se mettent aussi à créer leur app store. Avec Store for Mobile Apps, SAP propose plusieurs dizaines d’applications mobiles dédiées à l’ERP en mode hébergé. De même, on ne compte plus le nombre de SSII qui proposent aux entreprises des plateformes clés en main permettant de créer son propre magasin d’applications.

Article de Benoît Huet
Source : Le Monde informatique
Date : 14 Décembre 2012

Publicités

Laisser un commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :