Dossier Les 10 tendances et innovations technologiques en 2012

Les 10 tendances et innovations technologiques en 2012Notre rédaction a dressé une liste des 10 tendances et innovations technologiques qui devraient s’affirmer ou se confirmer l’année prochaine. Sans surprise, la mobilité, le cloud et les réseaux sociaux seront encore les trois axes à profiter le plus des innovations technologiques. Dans la mobilité, une bataille sur les architectures va s’engager pour contrer ARM, on peut dire la même chose pour les systèmes d’exploitation avec l’arrivée de Windows 8 sur les tablettes ou encore la virtualisation qui s’embarque dans les terminaux. Concernant le cloud, il y a toujours des défis à relever en terme d’outils d’administration, d’interopérabilité et des datacenters vieillissants à rénover… Quant aux réseaux sociaux publics, ils s’ouvrent aux entreprises via des API, un bon moyen pour monétiser la mine d’informations qu’ils renferment. Enfin, 2012 sera aussi l’année où l’on assistera à une montée en charge des outils analytiques et décisionnels en temps réel, à une sécurité accrue pour combattre les menaces persistances, à une multiplication des outils à commande vocale et…peut-être à la commercialisation des nouvelles mémoires intelligentes.

Sommaire du dossier :

Les mémoires non volatiles memristors

1. Les mémoires non volatiles memristors

Certaines avancées sur les nouvelles mémoires intelligentes devraient déboucher sur une production commerciale d’ici à la fin de l’année 2012. C’est notamment le cas pour HP et sa ReRAM qui pourrait potentiellement remplacer les mémoires de type Flas (…)

Les tablettes et les smartphones rattrapés par la virtualisation

2. Les tablettes et les smartphones rattrapés par la virtualisation

Selon Wilfrid Albersdorfer, président de Neocoretech, il y a de plus en plus de demandes de la part des entreprises pour des accès en virtualisation depuis des appareils nomades. Avec l’explosion des équipements mobiles, il est important de prendre e (…)

Systèmes d'exploitation mobiles : bataille rangée autour des tablettes !

3. Systèmes d’exploitation mobiles : bataille rangée autour des tablettes !

En 2012, les systèmes d’exploitation vont se multiplier sur les tablettes tactiles et privilégieront de plus en plus les usages qui étaient jusqu’alors plutôt réservés aux smartphones. En effet, les interfaces conçues autour de fenêtres, de menus et (…)

Vers une monétisation des réseaux sociaux

4. Vers une monétisation des réseaux sociaux

Dans une étude récente publiée par Gartner sur les grandes tendances à venir, le cabinet d’études se penche sur l’exploitation commerciale des réseaux sociaux. En effet, si depuis quelques années, l’usage des médias sociaux qu’ils soient publics ou p (…)

La montée des outils analytiques et décisionnels en temps réel

5. La montée des outils analytiques et décisionnels en temps réel

Aujourd’hui, le DSI a-t-il encore un rôle à jouer dans la croissance de l’entreprise ? Oui et peut-être même plus qu’avant… avec la nouvelle génération d’outils analytiques et de prises de décision en temps réel qui devraient se multiplier l’année (…)

Le cloud computing : toujours les mêmes défis à relever pour une demande croissante des services

6. Le cloud computing : toujours les mêmes défis à relever pour une demande croissante des services

Sans surprise, les services cloud (IaaS, PaaS et SaaS) privés et publics vont se généraliser en 2012. Selon Markess International,  27 % des entrepris (…)

Sécurité : des réseaux internationaux pour combattre les menaces persistances

7. Sécurité : des réseaux internationaux pour combattre les menaces persistances

2012 sera-t-elle l’année de tous les dangers en matière d’attaques informatiques? Difficile de prévoir… Mais, déjà en 2011, un certain nombre de grands groupes  comme la bourse de New York, Monsanto, Fox.com, Sony, Areva, Turbomeca, etc. ont subi d (…)

Guerre des processeurs : ARM nouveau challenger d'Intel en 2012

8. Guerre des processeurs : ARM nouveau challenger d’Intel en 2012

ARM domine le marché des processeurs pour les terminaux mobiles mais, depuis peu, il ne cache pas ses ambitions de conquérir le gigantesque marché du PC et des serveurs, largement acquis à Intel et AMD. Il faut dire que le support du futur Windows 8 (…)

Big Data : les solutions se multiplient pour traiter les grands volumes de données

9. Big Data : les solutions se multiplient pour traiter les grands volumes de données

Le concept de Big Data devrait également avoir la part belle des investissements en 2012. En effet, la taille, la complexité et le nombre de formats d (…)

Le boom de la reconnaissance et de la traduction vocale

10. Le boom de la reconnaissance et de la traduction vocale

Si l’annonce de l’iPhone 4S début octobre a déçu certains fans, elle a néanmoins soulevé un grand intérêt autour de l’assistant vocal, baptisé Siri intégré dans l’appareil. L’utilisation de l’outil Siri est surprenante. Avec cette application, il suf (…)

Les mémoires non volatiles memristors

Certaines avancées sur les nouvelles mémoires intelligentes devraient déboucher sur une production commerciale d’ici à la fin de l’année 2012. C’est notamment le cas pour HP et sa ReRAM qui pourrait potentiellement remplacer les mémoires de type Flash et DRAM. Pour bien comprendre la ReRAM, il faut savoir qu’elle est construite autour des memristors. Ces dernières comprennent une résistance avec de la mémoire et sont considérées comme le quatrième composant électrique passif (après le condensateur, la bobine et la résistance), selon les travaux du professeur Leon Chua, de l’Université de Californie à Berkeley en 1971.

Les laboratoires d’HP ont démontré que ces « mémoires-résistances » pouvaient effectuer des calculs logiques. La ReRAM est non volatile, ce qui signifie qu’elle peut conserver les données lorsqu’elle n’est pas alimentée électriquement. Ce qui n’est pas le cas pour la DRAM. Pour la production, le constructeur a fait appel à  Hynix. HP dispose déjà d’échantillons dans ses laboratoires qui embarquent des capacités de stockage de 12 Go par centimètre carré.

Les principaux fondeurs travaillent sur le sujet

De son côté, IBM travaille sur une mémoire à changement de phase (PCM) non volatile. L’objectif est de produire de puces qui peuvent stocker autant de données que la technologie flash NAND, mais avec des performances accrues et une durée de vie beaucoup plus grande. Selon IBM, la mémoire à changement de phase (PCM) permet de stocker deux bits de données par cellule, sans problèmes d’erreur de données, ce qui était un inconvénient majeur au début des recherches sur les PCM. La PCM peut soutenir jusqu’à 5 millions de cycles d’écriture (100 000 cycles maximum pour la mémoire flash NAND), avec un temps de latence de 10 millisecondes. IBM a indiqué qu’il ne produirait pas en propre les mémoires mais laisserait aux constructeurs comme Samsung intégrer cette technologie dans leurs produits. A

l’instar de HP et d’IBM, Micron, en partenariat avec Samsung, capitalise sur la Hybrid Memory Cube (HMC), une mémoire RAM 15 fois plus rapide que la DDR3 actuelle. Les  deux acteurs ont d’ailleurs fondé le HMCC, un consortium travaillant sur la HMC et ouvert à tous les acteurs IT.

Les tablettes et les smartphones rattrapés par la virtualisation

Selon Wilfrid Albersdorfer, président de Neocoretech, il y a de plus en plus de demandes de la part des entreprises pour des accès en virtualisation depuis des appareils nomadesAvec l’explosion des équipements mobiles, il est important de prendre en compte la virtualisation de ces équipements afin que l’utilisateur puisse retrouver son environnement de travail quel que soit le terminal (smartphone, tablette ou PC portable).

Tous les spécialistes de la virtualisation que nous avons interrogés prennent plus ou moins en charge les terminaux mobiles. Ainsi, Citrix gère ces applications nativement via un Receiver (client universel Citrix) disponible pour Windows, Mac, Unix/Linux, webOS, Android, iOS, RIM, ChromeOS, Symbian, Dos, OS/2… Citrix adapte le service délivré aux capacités spécifiques du périphérique, comme la prise en compte du tactile, l’adaptation ergonomique de l’OS ou des applications en fonction de la taille de l’écran par exemple. Cela évite de se retrouver avec un bureau Windows sur un iPhone ce qui, bien que techniquement possible, reste discutable  d’un point de vue ergonomique.

Les solutions se multiplient

Quant à  Wyse, l’entreprise a récemment lancé le Wyse Pocket Cloud, une application qui garantit l’accès à son bureau virtuel depuis un Iphone ou un smartphone sous Android. VMware, de son côté indique que la prise en compte de ces équipements est au coeur de leur stratégie. Cela s’est traduit par la sortie d’un client View pour iPad et View Client pour Android. Récemment, Verizon Wireless et AT&T ont annoncé qu’ils travaillaient avec VMware sur un hyperviseur pré-installé sur un smartphone, Horizon Mobile. Ainsi, les utilisateurs, quel que soit leur opérateur, pourront accéder à la boutique et y trouver des applications pour tous les OS en un seul endroit. De plus, cette initiative est utile pour séparer les usages privés et professionnels sur les smartphones.

Enfin, Microsoft, avec son nouvel OS Windows 8 intégrera la possibilité d’exécuter d’autres OS virtualisés dans des conteneurs. Jusqu’à présent, Hyper-V – gratuit – ne pouvait être installé sur les machines exécutant Windows Server 2008. Les utilisateurs qui ont besoin d’exécuter des machines virtuelles sur leurs ordinateurs de bureau Windows 7 utilisent donc des logiciels tiers, tels que Oracle Virtual Box ou VMware Workstation.

Systèmes d’exploitation mobiles : bataille rangée autour des tablettes !

En 2012, les systèmes d’exploitation vont se multiplier sur les tablettes tactiles et privilégieront de plus en plus les usages qui étaient jusqu’alors plutôt réservés aux smartphones. En effet, les interfaces conçues autour de fenêtres, de menus et de pointeurs seront remplacées  par le toucher, le geste, la voix et la vidéo. Premier exemple, Windows 8 qui fonctionnera sur des tablettes tactiles et sous les processeurs ARM et X86. L’OS de Microsoft héritera de l’interface Metro inspirée de Windows Phone 7 et de ses Live Tiles (tuiles tactiles) pour suivre d’un coup d’oeil et en temps réel des informations diverses issues de multiples sources, telles que la bourse, la météo, le prochain rendez-vous, le nombre d’emails non lus, etc.

De son côté, Android continue d’asseoir sa domination avec la version 4.0 mais cette version va tenter de réduire la fragmentation du système d’exploitation mobile de Google. En effet, cette mouture réalise une grande partie de ce que les constructeurs ont essayé de faire en ajoutant des surcouches à Android. Google vise à rassembler deux environnements nomades, celui des smartphones et des tablettes. Pour se faire, l’ergonomie et le design du système d’exploitation changent avec une compatibilité pour les tailles d’écrans de 1280 x 720 pixels.

À l’instar de Google, RIM devrait également unir dans un système unique baptisé BBX les OS pour smartphones (BlackBerry OS) et pour tablettes (QNX). Apple avec son iOS 5 sur les IPad simplifie d’avantages les usages en ajoutant des notifications, un nuage de stockage (iCloud  qui permet d’enregistrer et de stocker le contenu dans le nuage) et une synchronisation qui peut se passer du câblage iTunes (adoption du WiFi). Moins connu, Canonical travaille aussi pour porter son OS Open Source Ubuntu (avec son interface tant décriée Unify) sur les smartphones et les tablettes. Grâce à l’obtention rapide d’un SDK, les premiers produits apparaitront « au cours des 18 prochains mois » a précisé Mark Shuttleworth, le président de la fondation Ubuntu, lors d’un point à la presse.

Vers une monétisation des réseaux sociaux

Dans une étude récente publiée par Gartner sur les grandes tendances à venir, le cabinet d’études se penche sur l’exploitation commerciale des réseaux sociaux. En effet, si depuis quelques années, l’usage des médias sociaux qu’ils soient publics ou privés (réseaux collaboratifs d’entreprise) s’est fortement démocratisé, l’année à venir sera surtout vouée à l’exploitation commerciale de ces réseaux communautaires publics (Facebook ; Viadeo, Linkedin, etc.). Comment profiter financièrement de cet outil et de cette masse d’informations qu’il renferme ? En prônant l’ouverture…via des API qui permettraient une meilleure interopérabilité entre les réseaux sociaux et le système d’information de l’entreprise.

Le réseau social d’entreprise doit réussir la fédération des échanges et des contenus autour des projets et au-delà des applications verticales. « L’interconnexion des plateformes est au coeur des prochaines générations de réseaux sociaux. L’ouverture des réseaux sociaux via des API permet d’apporter plus de valeur et de personnalisation» déclare Olivier Fécherolle, directeur général stratégie et développement chez Viadeo.

Le réseau social n’a certes pas la vocation à remplacer toutes les applications métiers existantes. Il doit, cependant aider à prendre les bonnes décisions en temps réel en offrant aussi plus de personnalisation. En soi, Open Social est un bon exemple. Open Social définit un nouveau standard assurant l’interopérabilité entre les applications pour les différents réseaux sociaux ou sites Web qui le supportent. En France, Viadeo a récemment lancé son initiative Social graph, via une nouvelle API qui permet aux entreprises d’exploiter la mine d’informations de Viadeo. Les entreprises peuvent ainsi apporter de la valeur ajoutée à leurs services, et donner plus de sens à l’expérience web de leurs clients. Déjà des sociétés comme Salesforce, Seesmic ou l’APEC ont été séduites par l’initiative de Viadeo. Quant à mesurer l’impact financier sur l’exploitation commerciale des informations des réseaux sociaux, il est trop tôt pour donner des chiffres, mais à terme, il devrait être significatif.

La montée des outils analytiques et décisionnels en temps réel

Aujourd’hui, le DSI a-t-il encore un rôle à jouer dans la croissance de l’entreprise ? Oui et peut-être même plus qu’avant… avec la nouvelle génération d’outils analytiques et de prises de décision en temps réel qui devraient se multiplier l’année prochaine dans les grandes structures. En effet, les directions informatiques et les managers décisionnels se trouvent confrontés d’une part à des volumes de données de plus en plus importants à consolider et à intégrer dans les systèmes décisionnels. La pression des départements opérationnels et de la direction est de plus en plus forte sur l’accès à des données fiables pour optimiser leur prise de décision.

D’ailleurs, les éditeurs comme IBM, Oracle, Microsoft,  Informatica, Dataflux (groupe SAS), Exalead, HP avec Autonomy ou encore Microstrategy l’ont bien compris et affinent leurs applications pour les rendre encore plus agiles. Pour Christophe Borde, responsable marketing produit Websphere chez IBM, les outils de prise de décision en temps réel (comme WODM pour WebSphere Operational Decision Management)  vont clairement permettre de mieux comprendre les comportements des clients de l’entreprise et d’adapter au mieux l’offre à leurs besoins particuliers.

Prenons l’exemple de la relation client pour une assurance,  un outil de prise de décision en temps réel va permettre d’améliorer les interactions clients au travers des différents canaux de distribution. En effet, un client peut demander un devis au travers du web, par un appel à un call center ou, simplement en agence. L’offre la plus adaptée va pouvoir lui être proposée en tenant compte de son profil et de son intérêt. S’il fait des demandes rapprochées sur les différents canaux, ces événements vont pouvoir être pris en compte  pour lui proposer une offre cohérente et adaptée au mieux à son profil en fonction des conditions commerciales en vigueur dans l’entreprise.  Selon une étude conduite en 2011 par IBM auprès des directions informatiques d’entreprises du monde entier, 75 % des directeurs informatiques ayant pour mission de transformer le business de leur entreprise  compte conduire ce changement dans les mois à venir par une meilleure prise de décision en temps réel.

Le cloud computing : toujours les mêmes défis à relever pour une demande croissante des services

Sans surprise, les services cloud (IaaS, PaaS et SaaS) privés et publics vont se généraliser en 2012. Selon Markess International,  27 % des entreprises françaises ont déjà utilisé des services cloud en 2010. Ce chiffre passera à 38 % en 2011 et 49 % en 2012. Il reste néanmoins un certain nombre de défis à relever. Déjà, il faudra résoudre les problèmes d’interopérabilité que posent les clouds car les offres sont morcelées et propriétaires. Par exemple, pour répondre à un pic d’activité, une entreprise dont les capacités de son cloud sont limitées, pourra porter ce « surplus » vers un cloud public mais l’entreprise doit aussi pouvoir récupérer ces données en toute sécurité et rapidement. C’est loin d’être le cas aujourd’hui…

Ensuite, la majorité des datacenters existants ne répondent pas forcément aux besoins de plus en plus exigeants du cloud, la migration est plus difficile, complexe et aussi coûteuse. Déjà, il faut déployer des outils d’orchestration et d’automatisation qui font défaut dans ces datacenters vieillissants. Ensuite, pour Pascal Danet, responsable avant-ventes grands comptes chez Brocade, le LAN ne permet pas de faire du réseau moderne, car son câblage dans les datacenters ne prend pas en compte les besoins de convergence. De plus, on a aussi sous-estimé tous les paramètres liés au disaster recovery (PRA) et à la mobilité. Certes, aujourd’hui les entreprises sollicitent de plus en plus les fournisseurs d’infrastructures sur la conception d’une architecture de stockage avec une étude approfondie sur le câblage dans les datacenters en utilisant par exemple des protocoles de convergence de type FCOE.

Enfin, l’adoption massive des services cloud nécessitera de faire évoluer les équipements. Il n’est plus envisageable dans la conception des composants de ne plus prendre en compte la consommation d’énergie. Un exemple : un switch réseau 16 ports à 1 Gbps consommait, il y a dix ans 500 watts. Aujourd’hui le même switch avec 48 ports consomme moins de 200 watts. Finalement, la recette pour répondre aux demandes croissantes de services cloud sera l’efficacité énergétique, l’adaptabilité et la modularité, à l’instar des datacenters en « conteneurs » ou en durs mais modulaires comme le fait Microsoft.

Sécurité : des réseaux internationaux pour combattre les menaces persistances

2012 sera-t-elle l’année de tous les dangers en matière d’attaques informatiques? Difficile de prévoir… Mais, déjà en 2011, un certain nombre de grands groupes  comme la bourse de New York, Monsanto, Fox.com, Sony, Areva, Turbomeca, etc. ont subi des attaques informatiques ! Ces attaques ont été baptisées par les spécialistes « menaces persistantes avancées » ou APT (« Advanced Persistent Threat « ) en anglais. Persistantes, car le hacker va essayer de manière répétée d’atteindre son objectif et avancées car il exploite des mécanismes complexes comme des vulnérabilités non connues et des technologies de piratage inédites. « Les APT ne sont pas nouvelles en soi, elles existaient déjà dans le secteur militaire, mais aujourd’hui, elles frappent les industries et tout type d’entreprise » précise Yamina Perrot, directrice marketing de RSA.

Pour Luis Delabarre, le CTO de Trend Micro, les menaces persistantes représentent l’enjeu du moment, car elles sont invisibles. Et pour combattre ce type de menaces, il n’y a pas de solutions miracles. Toutefois, les fournisseurs et les éditeurs mettent en place des stratégies au niveau mondial, c’est notamment le cas d’IBM avec X-Force qui permet de contrer les attaques organisées. X-Force est piloté depuis 9 centres de Recherche et développement d’IBM lesquels scrutent les infrastructures des clients d’IBM. Déjà 54000 vulnérabilités sont répertoriées dans une base de données. Cisco, centralise aussi les attaques via sa plateforme SIO (Security Intelligence Operations) sur laquelle 500 salariés de la firme travaillent. Cette cellule de veille est en charge de la remontée d’informations auprès des 700 000 équipements qui contribuent à la base de réputation, et de la mise à jour des règles de sécurité pour le filtrage email, web, firewall et IPS. L’objectif est de créer un maillage sécuritaire.

Tous ces réseaux mondiaux comme le Smart Protection Network de Trend Micro permettent de dresser des typologies et des comportements d’attaques via du reporting. Mieux encore, la collaboration entre tous ces fournisseurs existe puisqu’un lien unique, le mitre.org géré par le MIT, fédère toutes les vulnérabilités existantes. Le constat aujourd’hui sur les attaques, c’est qu’elles sont plus difficiles à mener pour les pirates, car les entreprises se sécurisent de plus en plus. Auparavant, les attaques étaient relativement aisées avec, pour les pirates, un rendement maximum.

Guerre des processeurs : ARM nouveau challenger d’Intel en 2012

ARM domine le marché des processeurs pour les terminaux mobiles mais, depuis peu, il ne cache pas ses ambitions de conquérir le gigantesque marché du PC et des serveurs, largement acquis à Intel et AMD. Il faut dire que le support du futur Windows 8 sous ARM a de quoi booster les équipes d’ingénieurs chez ARM. Mais pour certains analystes comme Jim McGregor, stratège en technologie chez In-Stat, dans le domaine du PC, ARM doit faire face à un défi similaire à celui que doit affronter la puce x86 avec les tablettes. C’est techniquement faisable, mais le chemin sera long et difficile.

En effet, Intel et AMD disposent de puces plus rapides et une longue expérience, chacun dans  le PC, ce qui leur donne un certain avantage. Le plus des processeurs ARM est qu’ils offrent, en revanche une plus grande autonomie, un argument de poids pour les équipements de type tablette et les ordinateurs portables ultras légers. Pour rivaliser dans la catégorie supérieure, ARM devra offrir pour les versions futures de ces processeurs davantage de performances et un support pour des écrans de plus grande taille.

De serveurs ARM en test chez HP

Cela dit, les processeurs ARM séduisent. HP le premier. En effet, le géant américain a récemment développé un projet baptisé Moonshot dont l’objectif est de créer une architecture serveur basse consommation à base de microprocesseurs ARM utilisés dans les téléphones portables. Selon les ingénieurs du projet, cette nouvelle architecture réduirait la consommation d’énergie de 89% pour certaines tâches, tout en diminuant l’espace physique nécessaire, et pourrait réduire les coûts totaux de 63%. Une affaire à suivre donc… De son côté, Qualcomm vient aussi chasser sur les terres des Intel ou AMD avec son processeur Snapdragon dont un modèle ARM quadricoeur cadencé jusqu’à 2,5 GHz, couplé à une puce graphique (Adreno) dotée d’un affichage 3D en résolution HD 1080p. Cette puce serait commercialisée au premier semestre 2012.

Sur le marché des appareils mobiles, si AMD n’a pas de projet dans les smartphones pour contrer ARM, Intel et Mips Technologies souhaitent rapidement y entrer, surtout depuis l’arrivée d’Android 4.0. Le mois dernier,  Intel a d’ailleurs confirmé que Google Android était prêt à fonctionner sur des tablettes et des smartphones équipés de processeurs x86 pour mobiles d’Intel. Un modèle devrait même être opérationnel dès le premier semestre 2012. Un portage d’Android 4.0 sur puces x86 AMD vient juste d’être présenté. De son côté, Mips Technologies ambitionne aussi de rivaliser avec ARM sur ce juteux marché des smartphones et des tablettes. Les processeurs Mips supportent déjà Android 3.0 et de nouvelles puces seront en préparation pour la version 4.0  selon Jen-Bernier Santarini, le porte-parole de Mips. Il ajoute que ses ingénieurs n’attendent plus que le code Open Source des couches supérieures d’Android pour compléter le portage. Ce dernier serait d’ailleurs plus facile avec la version 4.0 que les moutures précédentes, et ce à la fois pour Mips et pour Intel.

Big Data : les solutions se multiplient pour traiter les grands volumes de données

Le concept de Big Data devrait également avoir la part belle des investissements en 2012. En effet, la taille, la complexité et le nombre de formats de données non structurés s’accroissant régulièrement. Les Big Data se traduisent par une avalanche de données générée par les réseaux sociaux, les capteurs mobiles, compteurs électriques et autres dispositifs. « En 2010, 1,2 zetabytes de données se sont échangés, nous prévoyons dans la prochaine décennie la circulation de 35 zetabytes de données » avait indiqué Joe Tucci, le CEO d’EMC à l’occasion de l’évènement EMC World 2011.

Pour l’heure, le Big Data ne concerne que très peu d’entreprises (Facebook, Amazon, eBay, etc.). Toutefois derrière ce concept, il faut donc disposer d’outils capables de traiter, d’analyser et de gérer ce déluge de données. Face à ce constat, les infrastructures d’aujourd’hui ne sont pas adaptées ainsi que les algorithmiques et la logique de bases de données. Pour faire du Big Data, il est nécessaire de concilier trois briques : gros volume, gros fichiers et rapidité d’accès.

Gérer des données aux formats changeants

Pour faire face, les fournisseurs investissent. C’est par exemple le cas d’EMC qui a récemment racheté Isillon Systems et créé une division baptisée Data Computing Product Division. Cette dernière embauchera près de 600 personnes d’ici au début de l’année 2012. Les premiers serveurs dédiés issus de cette division sont attendus au milieu de l’année 2012. D’autre part, la nouvelle division d’EMC se penche sur la distribution Open Source Apache Hadoop, laquelle est annoncée comme plus rapide que celle existante (notamment avec cloudera). L’objectif est à terme de construire une brique complète d’analyse des Big Data. À l’instar d’EMC, Oracle pourrait avoir recours au framework Hadoop adapté au traitement intensif de données et au langage Open Source R, conçu pour l’analyse statistique. Ainsi, Oracle les associerait à sa nouvelle base de données NoSQL pour gérer et subdiviser les gros volumes aux formats changeants.

De son côté IBM dispose à son catalogue de quelques briques prêtes pour le Big Data comme IBM XIV Storage System Gen3 (gestion améliorée du stockage), IBM System Storage Tape Controller for System z avec lecteurs TS1140 4 To (nouveau contrôleur de bandes pour grands systèmes), IBM Linear Tape File System LE (LTO 5) et Crossroads ReadVerify Appliance (monitoring des environnements physiques des bandothèques). Cisco avec ses solutions reposant sur UCS et Nexus pour les bases de données Oracle NoSQL et Quantum avec ses appliances G300 (attendues début 2012) et les baies de disques QM1200, QS1200 et QD6000 sont également dans les starting blocks pour proposer des solutions « Big Data ready ».

Le boom de la reconnaissance et de la traduction vocale

Si l’annonce de l’iPhone 4S début octobre a déçu certains fans, elle a néanmoins soulevé un grand intérêt autour de l’assistant vocal, baptisé Siri intégré dans l’appareil. L’utilisation de l’outil Siri est surprenante. Avec cette application, il suffit de prononcer une phrase en langage naturel pour qu’il la comprenne et exécute la requête. Il est possible de lui dicter un message, de lui demander la météo, de trouver un restaurant, jouer un morceau, prendre un rendez-vous, indiquer un itinéraire ou encore de définir et d’activer des pense-bêtes géolocalisés.

Cette interface vocale intelligente fait d’ailleurs peur à Google. En effet, son ex-PDG , Eric Schimdt, a récemment estimé devant le Sénat américain que Siri représentait une menace pour le moteur de recherche de Google. Et pour cause, Siri pourrait à terme remplacer Google comme moteur de recherche principal d’iOS. D’où l’inquiétude de Google, qui ne devrait pas tarder à proposer ses propres outils concurrents, il est fort probable qu’un projet similaire va équiper Android.

Déjà, avec Google Translate pour Android. L’utilisateur peut obtenir une traduction orale instantanée anglais/espagnol et inversement. Il faut dire que la commande vocale se démocratise fortement. Après les GPS, les mobiles s’emparent d’assistants personnels vocaux. Déjà, les utilisateurs de terminaux sous Android peuvent parcellement commander vocalement certaines fonctions. Apple, Google mais aussi Microsoft, qui de son côté continue aussi à faire évoluer son système vocal intégré à Windows Phone 7.5 (nom de code Mango). D’autres acteurs plus petits s’intéressent à ces commandes vocales intelligentes  comme Vlingo  que l’on retrouve dans l’AppStore d’Apple, uniquement en version anglaise ou  sous Android (avec le support de la langue française). On peut également citer  le français Quaero  avec sa traduction en temps réel… Bref, une multitude d’éditeurs s’engouffrent dans les technologies de commandes vocales ou de traduction vocale en temps réel.

Publicités

À propos PC AFRIQUE NEWS
Président de l'ONG CAMI AFRIQUE (Club des Amis de l'Informatique en Afrique) Ce blog est un espace d'information sur l'évolution des NTICs en Afrique et dans le monde en général.

3 Responses to Dossier Les 10 tendances et innovations technologiques en 2012

  1. click here says:

    You really make it seem so easy with your presentation but
    I find this topic to be actually something which I think I would never understand.

    It seems too complex and extremely broad for me. I’m looking forward for your next post, I will try to get the hang of it!

Laisser un commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :