TNIS Consultants - Actualités des technologies informatique et télécommunication pour l'entreprise

Aller au contenu | Aller au menu | Aller à la recherche

jeudi 31 décembre 2020

Important : Politique générale du Weblog et utilisation des commentaires

Il n'y a aucune sélection "commerciale" ou d'intérêt particulier sur ce WEB, si ce n'est ce qui nous parait intéresser les professionnels de l'informatique et des télécommunications en entreprise.... Ce site n'a pas la prétention d'être exhaustif et complet mais simplement représentatif... La rubrique "notre monde" permet une ouverture de type "culture générale" et "actualité".

Lire la suite

vendredi 11 février 2011

Tendances technologiques : les prédictions de Deloitte

Source Best-Practice - 11 Février 2011

Pour la dixième année consécutive, le cabinet de conseil Deloitte publie ses « Technology, Media & Telecommunications Predictions » sur les grandes tendances mondiales émergentes du secteur qui auront un fort impact sur la vie des entreprises et le comportement des consommateurs. « Les consommateurs et les entreprises seront à la fois emballés et dépassés par l’immense variété d’options qui s’offriront à eux. Qu’il s’agisse de PC, de netbooks, de tablettes ou de smartphones, les acheteurs devront faire un choix parmi un large éventail de fonctionnalités, de plates-formes, de systèmes d’exploitation, de dimensions et de gammes de prix », précise Duncan Stewart, Directeur de Deloitte Research, le centre mondial de recherches de Deloitte.

Les prédictions de cette année présentent en particulier l’impact résultant de la forte montée en puissance des terminaux, avec en tête les tablettes et les smartphones, et qui a bien souvent modifié les stratégies et les modèles de développement du secteur des technologies, médias ou télécommunications. Pour Ariane Bucaille, Associée, responsable du secteur TMT chez Deloitte : « L’industrie des TMT a beaucoup évolué au cours des dernières années. Encore une fois cette année, nous voyons de nouveaux terminaux (tablettes, smartphones), technologies (4G), et usages (jeux en ligne, wifi…) se développer. Ceux-ci peuvent profondément modifier les business models ou confirmer la position de leader de certains acteurs comme la télévision traditionnelle qui sera toujours très prisée des téléspectateurs ».



Deloitte a identifié plusieurs tendances qui marqueront l’année 2011 :



1. La fin d’une époque : plus de la moitié des ordinateurs n’en sont plus

En 2011, plus de 50 % du matériel informatique vendu dans le monde seront des smartphones, des tablettes numériques et des netbooks. Ce phénomène met ainsi un terme à la position dominante occupée par les PC depuis 30 ans. Contrairement au développement du netbook en 2009, lorsque les clients optaient pour des équipements qui étaient, pour l’essentiel, des versions moins puissantes de PC classiques, le marché informatique de 2011 sera dominé par des terminaux utilisant des processeurs et des systèmes d’exploitation différents de ceux utilisés pour les PC. Le monde jusqu’à présent dominé par les PC et essentiellement standardisé bascule aujourd’hui vers un environnement beaucoup plus hétérogène.



2. Diversité des systèmes d’exploitation : aucune norme ne se distingue pour les smartphones ou les tablettes

D’ici à fin 2011, aucun système d’exploitation ne dominera le marché informatique à croissance rapide des smartphones et de la nouvelle génération de tablettes. Certains systèmes d’exploitation parviendront à capter plus de 5 % des parts de marché, mais aucun acteur ne sera encore devenu, à lui seul, la norme de facto comme ce fut le cas par le passé dans les écosystèmes informatiques. Devenir le fournisseur de systèmes d’exploitation de référence sur le marché hors PC sera un formidable défi ; aucun nom ne devrait pourtant s’imposer avant fin 2011.



3. Les tablettes dans l’entreprise : bien plus que de simples jouets

En 2011, les entreprises représenteront plus du quart des acheteurs de tablettes, proportion qui devrait encore augmenter en 2012 et au-delà. Bien que certains commentateurs ne voient les tablettes que comme des jouets peu puissants de consommation de médias destinés aux particuliers, plus de 10 millions de ces équipements devraient être achetés par les entreprises en 2011. Tout porte à croire que la demande du grand public restera importante. En revanche, le marché des entreprises devrait connaître un engouement encore plus fort.



4. Le Wi-Fi vient compléter le haut débit cellulaire pour les « données mobiles »

En 2011, le volume des données téléchargées de et vers les équipements mobiles via des réseaux Wi-Fi publics augmentera à un rythme beaucoup plus soutenu (25% à 50%) que celui transféré sur les réseaux cellulaires haut débit. Les utilisateurs pourront arbitrer entre réseau wifi et mobile en fonction du volume de données à échanger, et de leur format (la vidéo par exemple), ceci notamment grâce à la multiplication des « hotspots ». La croissance des usages haut-débit mobile sera essentiellement portée par les utilisateurs qui souhaitent profiter pleinement de ses avantages : zone de couverture étendue, mobilité et sécurité intégrée de cette technologie.



5. Confidentialité des données en ligne : du mieux dans la réglementation mais les cookies sont toujours là !

Les incidents liés à la confidentialité des données en ligne continueront à faire les gros titres des journaux en 2011. Cependant, en 2011 seuls des changements mineurs sont attendus en termes de législations et réglementations sur la façon dont les sites Web collectent, partagent et exploitent les informations des utilisateurs. Les fondamentaux des modèles économiques en ligne ne devraient donc pas être remis en cause. Les internautes continueront également à partager leurs informations. C’est aux professionnels du commerce en ligne de prendre des mesures de plus en plus contraignantes pour s’autoréguler et investir dans des outils intégrant la dimension de confidentialité, ce qui leur conférera un avantage concurrentiel.

mardi 8 février 2011

Livre Blanc Cloud Computing / Sécurité

Cet ouvrage vient compléter et détailler le premier livre blanc Cloud Computing édité par Syntec Numérique en avril 2010.

Apprendre en avançant

L’informatique, comme de nombreux domaines innovants, apprend en avançant. Ceci est vrai pour le Cloud

Computing, dont les offres se définissent un peu plus précisément chaque jour. Ceci est tout aussi vrai pour les

problématiques sécuritaires des TIC en général, et du Cloud Computing en particulier ! Cet ouvrage constitue donc

une « photographie » des risques et solutions connus, traités et utilisés au moment de la rédaction de cet ouvrage

(août à novembre 2010).

Cloud Computing &/ou Cloud Storage

Ce livre Blanc concerne principalement, et à dessein, le Cloud Computing (sécurité des données contenues dans

les instances sur le Cloud). Seuls quelques paragraphes abordent explicitement les problématiques sécuritaires

du « Cloud Storage » (traitement des données stockées sur des plates-formes distribuées).

Téléchargez les documents relatifs à cet article :

   * application/pdf Lire le livre Blanc Cloud Computing / Sécurité.pdf 414,36 kB
   * application/pdf Lire le Communiqué de presse.pdf 186,23 kB

dimanche 8 août 2010

Collaboratif : la technologie n'est rien si les usages ne sont pas au rendez-vous

Référence - L'entreprise intelligente - 5 Aout 2010

Le travail collaboratif ne se décrète pas, même avec des technologies innovantes et gratuites. Une nouvelle preuve éclatante vient d'en être donnée avec l'annonce de l'arrêt des développements de Wave par Google. Présentée il y a un peu plus d'un an, la technologie Wave devait pas moins que révolutionner la façon dont les gens allaient communiquer et collaborer sur Internet. Il s'agissait de mixer de la communication temps réel, de la communication asynchrone, du partage de documents et d'applications, des fonctions automatisées... plus un enregistrement automatique permettant de rejouer la « vaguelette » pour voir les contributions des participants au fil du temps.

En présentant ce projet, Google avait cependant bien fait comprendre que son succès dépendrait surtout de l'implication des développeurs, qui pourraient s'inspirer de ces technologies pour en faire des applications à même de séduire le public. Visiblement, même les développeurs n'ont pas trop su quoi faire de cet ensemble de technologies.

Quelles leçons en tirer pour une entreprise ?

- Les plus beaux projets, les plus belles technologies du monde ne sont pas forcément ceux qu'attendent les gens. Ou du moins, ceux sur lesquels ils se précipiteront. Même appartenant à la génération Y, ces fameux « digital natives » nés avec les MP3 et Facebook, recherchent avant tout des logiciels simples d'accès, qu'ils peuvent appréhender immédiatement. On l'a vu par le passé à de multiples reprises, les outils collaboratifs censés capturer le savoir et le partager dans l'entreprise n'ont pas franchement décollé, alors que le courriel et la messagerie instantanée (et la visioconférence), simplissimes dans leur utilisation, ont connu une énorme montée en puissance.

- Les innovations sont plus souvent fondées sur les usages que sur les technologies innovantes. Nous disposons déjà de nombreuses technologies pas ou insuffisamment exploitées. Elles n'attendent que l'imagination d'éditeurs ou de développeurs pour trouver un business model et un mode d'utilisation à même d'en faire des succès.

- Les technologies innovantes ne sont pas à jeter à la poubelle, bien au contraire ! D'ailleurs, Google explique que les principes de Wave seront repris ici ou là, dans d'autres services. C'est ainsi que nous progressons le mieux, en fin de compte, en apprenant de nos échecs, et en procédant par itérations : en ajoutant des fonctions au fur et à mesure, et en testant les réactions du public concerné.

mercredi 19 mai 2010

Le référentiel général de sécurité enfin approuvé

Source CIO Online - Edition du 18/05/2010 - par Bertrand Lemaire

La version 1.0 vient d'être mis en ligne et approuvé par un arrêté paru au Journal Officiel. Il régule notamment les procédures de mise en oeuvre des signatures électroniques.

La DGME (direction générale de la modernisation de l'Etat) et l'ANSSI (Agence nationale de la sécurité des systèmes d'information) ont enfin accouché de leur bébé commun, le Référentiel Général de Sécurité (RGS), petit frère du RGI (Référentiel Général d'Interopérabilité).

Le RGS vise à définir très précisément chaque concept (confidentialité, signature, horodatage...) et les bonnes pratiques associées pour garantir au mieux la sécurité des systèmes d'information. Il constitue une base pour toute politique de sécurité de manière obligatoire dans les administrations, ce qui n'empêche pas le secteur privé d'y recourir, ne serait-ce que pour parler un langage commun.

Ses définitions sont plus procédurales et méthodologiques que purement techniques : le RGS ne vise ainsi (au contraire du RGI) à promouvoir aucune technologie et aucun format en particulier. Il rappelle le cadre légal applicable lorsqu'un tel rappel est pertinent.

Les annexes du RGS précisent les critères et les modalités de qualification des signatures électroniques ainsi que des architectures et des organisations les délivrant. Les procédures inscrites au RGS s'imposent aux organisations délivrant des certificats de signature électronique. Cependant, il ne s'agit là, pour l'essentiel, que de rappels de dispositions déjà existantes mais dispersées.

En savoir plus

Arrêté du 6 mai 2010 portant approbation du référentiel général de sécurité et précisant les modalités de mise en oeuvre de la procédure de validation des certificats électroniques

Le référentiel sur le site de l'ANSSI

9 janvier 2009 : La DGME publie ses référentiels de bonnes pratiques... encore officieux ! 12 novembre 2009 : Le RGI enfin promulgué !

Dell pour le poste de travail virtuel

Source CIO Online - 18/05/2010 - par Jean Elyan avec IDG News Service

Au contraire de Microsoft, Michael Dell défend le poste de travail virtuel pour s'adapter à la multiplicité des périphériques.

Michael Dell, le PDG de la société éponyme, soutient que les appareils mobiles ne signeront pas la mort du PC. Au lieu de cela, il se projette dans un avenir où les utilisateurs possèderont de plus en plus d'appareils à la fois différents et proches les uns des autres du fait de la virtualisation du poste de travail, proposées par les réseaux virtuels et le cloud. « Ce sont les données qui vont converger, pas les appareils, » a déclaré le patron de Dell au cours du discours qu'il a tenu devant les participants de la conférence utilisateur Citrix Synergy qui s'est tenue à San Francisco.

Le dirigeant pense plutôt que chaque utilisateur possèdera plusieurs types d'appareils mobiles, chacun destiné à une tâche spécifique. « Certains seront plus pratiques à transporter avec soi, d'autres seront dédiés à la consommation de contenu, d'autres plus appropriés à la création de contenu ». Ses propos vont à l'encontre de l'idée selon laquelle un smartphone ou tout autre appareil mobile deviendra l'outil multifonctions pour le travail, la communication, le réseau social et le divertissement. Depuis 2008, les utilisateurs ont acheté environ 250 millions de smartphones, indique Strategy Analytics. Beaucoup d'entre eux utilisent leur terminal pour effectuer des tâches traditionnellement réalisées sur leur PC, que ce soit pour la rédaction d'un document ou l'envoi de mail. Cela n'empêche pas Michael Dell d'affirmer que l'arrivée de l'iPad vient confirmer son point de vue, à savoir que les utilisateurs veulent plus d'appareils, tout en souhaitant accéder de manière équivalente à leurs données (peut-être, à un même bureau virtuel). « Une infrastructure d'applications est en train de se mettre en place de manière significative autour de dispositifs comme l'iPad. Est-ce que cela créé de nouveaux usages, une nouvelle demande, ou est-ce que ça se substitue à autre chose? Il me semble pour ma part que cela crée de nouveaux usages » a déclaré Michael Dell.

Au milieu des rires de quelques participants, il a montré le prototype du smartphone Streak de Dell sous Android. Grâce au récepteur Citrix équipant le mobile, il a pu choisir entre plusieurs environnements de bureau, comme il a pu exécuter plusieurs applications en mode natif sous Android et utiliser des applications comme Facebook et Twitter. Le Streak, qui sera disponible dès le mois prochain en Europe sur le réseau de l'opérateur Telefónica O2 et à partir de cet été aux États-Unis chez AT & T, a séduit quelques participants, même si pour la plupart, ils ont eu le sentiment que ce terminal, « c'était trop peu et trop tard pour rivaliser avec un iPhone ou un BlackBerry. »

La virtualisation du poste client inéluctable

Certes, le smartphone n'est que le sommet de l'iceberg de la virtualisation mise en avant par Dell qui a également annoncé que la technologie XenClient introduite par Citrix il y a moins d'une semaine, serait bientôt certifiée et disponible pour les ordinateurs portables Dell Latitude et les systèmes client OptiPlex. « Quand nous abordons la question du VDI, certains nous expliquent que cela sera mauvais pour nos affaires » a déclaré Michael Dell. « Mais si quelque chose de très utile survient pour les clients, et si vous décidez de l'accompagner, vous le faites à vos risques et périls. La virtualisation des serveurs et du poste client, nous allons faire les deux ». Cette déclaration peut être considérée comme une référence à peine voilée à Microsoft. Il est vrai que le géant de Redmond et Citrix collaborent étroitement sur la virtualisation, Microsoft ayant même annoncé lors de Synergy que la prochaine version de son System Center, qui doit sortir en 2011, prendra en charge XenServer.

Pourtant, du côté du VDI, la politique d'octroi de licences choisie par Microsoft a fait grimper le coût de cette technologie sous Windows pour de nombreuses entreprises, comparativement à l'option d'achat de nouvelles machines. Citrix vend des licences par utilisateur ou par poste, si bien qu'un utilisateur disposant de plusieurs périphériques peut accéder au bureau virtuel de l'éditeur à partir de n'importe lequel d'entre eux. Néanmoins, Microsoft a récemment assoupli sa position sur les licences Windows VDI, en permettant aux utilisateurs titulaires d'un contrat Software Assurance de les transférer vers les machines virtualisées.

La société de Redmond rejoint ainsi le point de vue de Dell et de Citrix selon lequel la virtualisation du poste de travail sera de plus en plus attrayante. « De la même manière que les utilisateurs ont adopté Windows 7, un nombre croissant d'entre eux chercheront une certaine forme de virtualisation de bureau, » a déclaré Brad Anderson, directeur général de la division Management et Solutions chez Microsoft. Selon lui, la virtualisation de bureau peut se faire de diverses façons, y compris la VDI totale, la virtualisation des applications et des sessions. Cela rend peut-être aussi les craintes typiques de l'utilisateur - peur de perdre la connectivité via le WAN, questions sur la sécurité, la qualité des performances, les problèmes d'imprimantes et de pilotes - plus faciles à gérer.

Un soutien du stockage

Pour Michael Dell, les technologies récentes de stockage vont permettre d'augmenter le ratio d'utilisateurs-serveurs, ce qui améliorera considérablement le retour sur investissement de la VDI. Aujourd'hui, la plupart des disques durs multi-connexions sont capables de supporter jusqu'à 100 à 150 images VDI. Mais des technologies comme celles des disques iSCSI SSD à semi-conducteurs, utilisés par exemple dans le plus récent des disques EqualLogic Disk Array de Dell, pourront gérer jusqu'à 300 ou 350 images pour 1. « Plus la densité en VDI des serveurs augmente sur les disques, plus le retour sur investissement de la VDI est élevé, » a déclaré Michael Dell. Certains conviennent que la densité d'utilisateurs a été l'un des facteurs qui a fait délaisser cette technologie. Rand Morimoto, président de l'intégrateur Systèmes CCO, a déclaré que « lorsqu'une entreprise sert la même image de bureau à plusieurs machines (ordinateurs de bureau à distance sur la base de connexions par session) via les solutions de Citrix ou de Microsoft, le ratio utilisateur-serveur peut monter jusqu'à 200 pour 1. Mais dès que le gestionnaire informatique tente de livrer un bureau personnalisé et unique à chaque utilisateur, le ratio tombe à 30 ou 40 utilisateurs pour 1. » Selon Rand Morimoto, les vendeurs de serveurs aiment prêcher pour le bien-fondé du tout VDI. Mais, d'après son expérience, une approche hybride est plus rentable, parce que, dans de nombreuses entreprises, la plupart des salariés n'ont pas besoin de disposer d'un bureau virtuel entièrement personnalisable. « Lorsque les services de bureau à distance ont un sens dans l'organisation du travail, seuls 5% à 10% des utilisateurs (comptables, RH,) de VDI peuvent justifier le besoin de disposer de connexions clients personnalisées, » a t-il expliqué.

Autre approche contradictoire :

Le 14 mai 2010 : Le poste de travail virtuel pas toujours intéressant selon Microsoft

dimanche 9 mai 2010

IBM lance un guide de l'étiquette en affaires

Source

IBM lance un guide de l'étiquette en affaires

Le guide « Social Business Etiquette » : 10 conseils pour traiter des affaires et collaborer avec des collègues à l’ère numérique

BRUXELLES, LE 10 AOUT 2009 – Le monde des affaires s'articule autour des interactions entre ces êtres humains : les collègues, les clients et les fournisseurs. Les entreprises ont recours de plus en plus intensivement aux technologies numériques que sont le téléphone, l’Internet et l'e-mail pour instaurer et maintenir le contact avec ces interlocuteurs. Quel usage faire aujourd'hui de toutes les récentes technologies de communication? Qu’est-ce qui est acceptable, qu’est-ce qui ne l’est pas ? Comment maintenir une distinction claire entre la vie professionnelle et la vie privée, alors que de plus en plus de gens font preuve de « flexibilité » dans ce domaine ? Ces aspects sont abordés dans le guide « Social Business Etiquette », élaboré par IBM, le fournisseur de services ICT. L'entreprise a consigné les expériences de ses propres collaborateurs pour définir une méthodologie fructueuse en affaires et de la collaboration fructueuse à l’ère du numérique.

Voici les 10 grands conseils de ce guide :

1. Prenez plus souvent une tasse de café au lieu de perdre votre temps à rédiger des e-mails, à chatter ou à téléphoner. Il n'est pas possible de développer une relation professionnelle par la voie numérique ; un contact personnel est indispensable pour y parvenir. Dès lors, demandez-vous, lors de chaque contact par un canal numérique, s'il n’est pas préférable de débattre du sujet autour d'une tasse de café. La question ne se pose même pas si l'échange de vues concerne une situation émotionnelle, des critiques ou des informations confidentielles. Ce genre de sujets n'a pas sa place dans des échanges professionnels par voie numérique. Vous pourriez même aggraver la situation. Privilégiez donc le contact de personne à personne !

2. Soyez réellement attentif. L'Internet mobile vous permet d'être en ligne partout et à tout moment, donc aussi pendant des négociations, des déjeuners avec l'équipe ou des rendez-vous d'affaires. Il est particulièrement grossier d'être en ligne lorsque d'autres personnes sont en droit d’attendre votre attention. Donnez-leur la priorité et rangez votre Blackberry. Si vous devez absolument rester en ligne, par exemple pour des raisons privées qui requièrent l'urgence, ayez la correction d'en avertir vos interlocuteurs ouvertement et en temps voulu. Vous pourrez alors compter sur leur compréhension.

3. Chacun agence sa journée de travail à sa façon et définit quand s'arrête le travail et débute la soirée. Certaines personnes continuent à travailler chez elles le soir, tandis que d'autres font une distinction claire et nette entre le travail au bureau et la vie privée à la maison. Gardez à l'esprit que la situation est différente pour chacun et que la vôtre ne doit pas régenter celle des autres. Commencez toujours pas expliquer votre situation et connaître celle de votre interlocuteur. Prenez conscience que si vous contactez quelqu'un en dehors des heures de bureau, le délai de réponse sera peut-être plus long.

4. Chatter est une manière tout à fait pertinente de communiquer en affaires : l’instant messaging est un outil de communication en temps réel qui permet de commiquer avec d'autres personnes qui sont en ligne. Chatter est donc une manière particulièrement efficace d'échanger des informations sans délais, dans un contexte professionnel. Veillez donc à ce que cette information soit utile, concise et précise. Évitez les blagues et les sujets qui concernent votre vie privée. Sachez qu'au début de chaque session de chat, vous obligez le destinataire à interrompre son travail.

5. Évitez les bruits de fond : de plus en plus de personnes passent des coups de fil quand elles sont en voiture. Veillez toujours à ne pas entamer ou terminer une discussion professionnelle dans un café bruyant ou à côté d'un camion qui démarre. Cherchez plutôt un endroit tranquille ou postposez votre appel téléphonique jusqu'au moment où vous vous trouvez dans un environnement calme. D'autant plus si vous devez débattre de sujets délicats.

6. Les écrits restent (lors d’un chat professionnel) : si vous êtes en conversation individuelle avec un collègue via chat ou un blog, veillez à ne pas adopter une attitude trop familière parce que vous croyez être seul avec lui ou elle. Ce dont vous débattez reste sur le système et sera lisible par d’autres personnes (qui passeront après vous).

7. Réduisez l’usage de la rubrique CC : il est très facile d’envoyer un message en CC à la moitié de l’entreprise, mais quelle utilité cela aura-t-il pour tous ces gens ? Etes-vous sûr d’utiliser le bon canal de communication ? (L’instant messaging ne serait-il pas plus approprié, par exemple ?) Votre message a-t-il pour but d’informer quelqu’un (ou seulement de l’inciter à agir) ? Il se pourrait que votre message n’ait d’autre effet que d’agacer les destinataires. Si tout le monde commence à utiliser la rubrique CC, cette pratique devient même carrément contre-productive.

8. Pas de fantaisie dans les SMS, voice mails et sonneries. Le ton de votre communication est-il compatible avec l'organisation qui vous emploie et votre fonction ? Votre supérieur hiérarchique, client ou collègue n'appréciera pas forcément un message laconique du style « tonB malade 7 nuit :-( ». Cela s'appliquera aussi à une sonnerie de téléphone imitant le cri de Tarzan ou un message d'annonce voice mail décidément trop personnel. Restez professionnel en toutes circonstances.

9. Soyez efficace lors d'une téléconférence ou visioconférence : la technologie numérique a considérablement élargi le champ des possibilités. Optez pour un programme de discussion clair et la présence d'un modérateur qui gère efficacement les débats. La réunion pourra ainsi débuter à l’heure et se terminer dans les délais, surtout si chacun s’y est bien préparé.

10. Soyez toujours une carte de visite de votre entreprise : l'homme ou la femme d'affaires se reconnaît à sa tenue, à sa façon de mener une discussion, à son téléphone portable ou à son ordinateur. Veillez à être toujours une carte de visite de votre entreprise, où que vous soyez : à l'aéroport, dans la rue, en voiture... Soyez discret au restaurant, ne parlez pas trop fort au téléphone ou, mieux encore, sortez quelques instants (un restaurant n'est pas une salle de réunion). Vos appels téléphoniques peuvent déranger les autres convives, ce qui peut nuire à l'image que ces personnes auront dès cet instant de votre entreprise.

vendredi 30 avril 2010

Rapport semestriel MELANI (Suisse) - 2009/2

Source Centrale d'enregistrement et d'analyse pour la sûreté de l'information MELANI - 30 Avril 2010

La Centrale d'enregistrement et d'analyse pour la sûreté de l'information MELANI met en lumière, dans son dixième rapport, les activités cybercriminelles ayant marqué le deuxième semestre 2009. Il a pour temps forts les vols d'informations commis à l'échelle planétaire, les attaques à connotation politique, ainsi que le chantage exercé au moyen d'attaques DDos.

La cybercriminalité possède plusieurs facettes, allant du vol de données commis à des fins d'enrichissement à la défiguration de sites Web, comme exécutoire à une déception politique. Tant les entreprises que les administrations ou encore les partis politiques en font les frais. L'administration fédérale de la confédération helvétique n'a pas été épargnée.

Typ: PDF MELANI - Rapport semestriel 2009/2

mardi 16 mars 2010

Cloud Computing : en progression selon CA

Source BestPracticesSI - Mars 2010

CA a publié les résultats d’une étude centrée sur la perception du Cloud Computing par les entreprises européennes. Selon cette enquête, il semble que les entreprises françaises ne sont pas encore totalement convaincues par les avantages de ce qui apparaît comme l’étape logique succédant à la virtualisation : l’adoption des technologies de Cloud Computing. Même si seulement 30 % des personnes interrogées considèrent le cloud computing comme un «effet de mode» à court terme ; 64% des sondés attendent des arguments plus convaincants en sa faveur.

Cette étude a été menée pour le compte de CA auprès de 550 entreprises européennes par Vanson Bourne. Ses conclusions montrent que si la virtualisation de serveurs connaît un franc succès (72% des sondés déclarant avoir déjà mené une implémentation ou prévoir de le faire) ; ses conclusions sont beaucoup moins consensuelles quant aux prochaines étapes de la migration d’un environnement statique vers le Cloud Computing : «provisioning» et «de-provisioning» automatiques (respectivement pour 10 et 6% des personnes interrogées) ; allocation dynamique des ressources (28%).



Pour 54% des entreprises, le concept de Cloud Computing est toujours largement assimilé à celui d’externalisation (ou «Cloud Computing externe»). Qu’il s’agisse d’un environnement interne ou externe, les sondés restent dubitatifs quant à ses avantages et semblent ne pas relier clairement ses bénéfices technologiques (self-service à la demande, accès réseau étendu, élasticité immédiate, mesure des services offerts, etc.) à ses avantages métier : économies de coûts, meilleur ROI, disponibilité supérieure, déploiement accéléré de nouveaux services, etc. Il est par exemple instructif de noter que seulement 16% des sondés considèrent la métrologie des services – qui est pourtant un argument clé en faveur du Cloud Computing externe – comme un véritable avantage.



Les freins majeurs portent sur la sécurité et l’administration



Les inconvénients du Cloud Computing les plus fréquemment cités sont centrés sur les problématiques d’administration (60%) et de sécurité (22% ) – qu’il convient de compléter par le sentiment partagé par 60% des sondés de ne pas disposer des compétences internes requises pour implémenter une infrastructure de Cloud Computing.



Selon Bjarne Rasmussen, «les entreprises les plus innovantes commencent à mesurer à quel point la gestion dynamique des environnements virtualisés et la fourniture des infrastructures sous forme de « service » présentent des avantages majeurs de flexibilité, grâce à la capacité à dimensionner la puissance informatique à la demande. Cette première prise de conscience leur permet de libérer la pleine puissance de la virtualisation.» «Il appartient aujourd’hui à l’industrie de mettre en lumière les meilleurs cas d’application du Cloud Computing, mais surtout, de présenter les technologies de support qui garantiront aux clients une transition harmonieuse et réussie.»

Le Green, ce n'est pas qu'electoral ! ;-)

Voir ici :

www.greenIT.fr

Une grande avancée pour la responsabilité sociétale : le projet de la future norme internationale ISO 26000 est approuvé

Source AFNOR - Mars 2010

Le projet de norme internationale ISO 26000 "Lignes directrices relatives à la responsabilité sociétale des organisations" vient d'être approuvé par les 2 tiers des pays membres de l’ISO* qui ont participé au suffrage. AFNOR, représentant français de la normalisation à l’ISO, a voté en faveur de ce texte élaboré de manière consensuelle qui donne une définition de la responsabilité sociétale. Ce vote constitue une étape importante dans l’élaboration de l’ISO 26000 dont la publication est prévue fin 2010.

Fin 2009, AFNOR a organisé, comme pour toute norme, une enquête publique invitant tout acteur (pouvoirs publics, entreprises, associations, syndicats, représentants de consommateurs…) ou simple citoyen à donner son avis sur le projet de norme ISO 26000.

La norme ISO 26000 a pour objectif de définir et de clarifier le concept de responsabilité sociétale et de le rendre applicable à tout type d’organisation (entreprises, collectivités territoriales, syndicats, associations….). Elle repose sur 2 fondamentaux qui sont d’une part, la volonté de l’organisation d’assumer la responsabilité des impacts de ses activités et de ses décisions sur l’environnement et la société et, d’autre part, d’en rendre compte.

86 pays ont voté lors de ce suffrage. Une participation élevée qui illustre la mobilisation des pays pour la responsabilité sociétale.

La France a su dans ce projet de norme faire partager les éléments fondamentaux de sa vision de la responsabilité sociétale comme par exemple la nécessité de respecter les textes internationaux (Conventions fondamentales de l’Organisation Internationale du Travail,…) ou l’importance pour les organisations de dialoguer avec les acteurs de leur environnement (parties prenantes). Elle a donc donné un vote favorable au projet de texte. De nombreux pays francophones ont eux aussi voté positivement, démontrant leur l'attachement à des objectifs universels communs comme les Droits de l'Homme et le développement durable.

Toutes les observations émises lors de ce vote par les pays membres de l’ISO, seront examinées au Danemark du 15 au 21 mai 2010 pour aboutir au projet final de norme internationale (FDIS). Le vote final sur le FDIS se déroulera pendant une période de 2 mois durant l'été 2010, pour une publication en tant que Norme internationale vers la fin 2010.

L’ISO 26000 est élaborée au sein de l’ISO, l’organisation internationale de normalisation, par plus de 500 experts représentants 90 pays et une quarantaine d’organisations internationales (l’organisation internationale du Travail-OIT, Pacte Mondial, l’organisation de coopération et de développement économique - OCDE, Global Reporting Initiative-GRI…). La commission française représentée par AFNOR rassemble plus d’une centaine d’organisations (entreprises, pouvoirs publics, associations, syndicats, représentants des consommateurs…).

Le projet de norme internationale (DIS 26000) est accessible sur : www.afnor.org

dimanche 14 mars 2010

De l'humour pour informaticiens, une vision critique et caustique qui fait du bien...

Allez faire un petit tour ici :

http://sehiaud.blogspirit.com/

Lire la suite

dimanche 7 mars 2010

Humeur : « Que les réseaux sociaux nous respectent »

Un peu d'intelligence dans ce monde de boeufs ;-)

Lire la suite

vendredi 5 mars 2010

Les informaticiens européens pas convaincus par le Cloud

Publié le vendredi 5 mars 2010 par Bertrand Garé sur www.l'informaticien.com

Une étude auprès de 550 responsables informatiques européens réalisée pour le compte de CA (ex Computer Associates) démontre que ceux-ci sont peu convaincus par les promesses du Cloud. Et 11% d'entre eux pensent que ce n’est qu’une mode qui passera dans les mois à venir.

Si les constructeurs, éditeurs et analystes de tout poil s’emballent sur les bénéfices du Cloud et la révolution que peut représenter cette nouvelle manière de concevoir l’informatique, il leur faudra encore convaincre les utilisateurs qui restent sceptiques.

Ainsi l’étude réalisée par Vanson Bourne pour le compte de CA, « Unleashing the power of virtualisation 2010 », a rendu des résultats étonnants. Pas moins de 11 % des personnes interrogées affichent un très fort scepticisme pensant même que le phénomène va disparaître. A 72 %, elles se considèrent encore à convaincre sur le sujet.

L’étude démontre aussi que la perception des bénéfices du Cloud est loin d’être claire pour les utilisateurs, qu’ils soient publics ou privés. Cela s’explique par la difficulté que les personnes interrogées ont à relier les bénéfices technologiques du Cloud avec les processus métiers de leur entreprise. En fait, le Cloud ne représenterait pour elles qu’une nouvelle forme d’externalisation ou une évolution de leur informatique interne.

Trois freins sont clairement identifiés : la sécurité, l’administration/gestion et le respect de la conformité. Ainsi à 54 %, les personnes interrogées pensent que l’administration est un important désavantage du Cloud.

65 % pensent ne pas avoir les compétences pour délivrer une solution de ce type dans leur entreprise. La situation n’est cependant pas désespérée pour les offreurs dans le domaine. 70% des entreprises interrogées ont mis ou vont mettre en place des solutions virtualisées, fondement technologique du Cloud.

Le contexte économique conduit quand même à envisager ce nouveau mode d’utilisation. 47 % d’ailleurs des entreprises interrogées vont installer ou ont installé déjà des solutions de type Cloud. Mais contrairement à ce que l’on pourrait penser ce ne sont pas les entreprises de petites tailles qui sont intéressées mais les grandes avec 63 % d’intérêt dans les entreprises entre 1000 et 3000 salariés.

Le rapport complet de CA

samedi 27 février 2010

La synthèse de l'Open CIO Summit rendue disponible

Source CIO Online - 25 Février 2010

Edition du 25/02/2010 - par Bertrand Lemaire

La synthèse de l'Open CIO Summit rendue disponible

« Etes-vous prêt pour l'innovation : les vrais enjeux de l'Open Source pour les DSI » est en téléchargement gratuit.

Dans le cadre de l'Open World Forum 2009, l'ANDSI (Association Nationale des DSI) et le CIGREF (Club Informatique des Grandes Entreprises Françaises) ont organisé, en partenariat avec CIO, le premier Open CIO Summit. Dédié aux DSI et autres IT managers, l'Open CIO Summit a permis de faire le point sur les usages réels ou possibles et les bonnes pratiques de l'open-source et des logiciels libres en entreprises.

La synthèse des présentations et des débats vient d'être publiée sur le site web de la manifestation.

Plusieurs surprises ont été constatées. Tout d'abord, les DSI recherchent dans l'open-source plus des sources d'innovation aisée que d'économies directes et plus l'usage de formats normalisés ouverts que l'ouverture du code. A l'inverse, les utilisateurs finaux constituent le premier frein à l'adoption de logiciels libres en dehors des seules infrastructures : le design et l'ergonomie sont « faits par des techniciens pour des techniciens ». Une autre difficulté est la gestion des ressources humaines liée aux compétences sur les produits open-source : les certifications et parcours de formations ne sont pas forcément aussi clairs qu'avec des éditeurs propriétaires. Malgré tout, les DSI considèrent que l'open-source constitue plus une opportunité qu'un risque... sous réserve de savoir le gérer.

Les meilleures pratiques constituent d'ailleurs le coeur du compte-rendu. Le monde de l'open-source est foisonnant et l'on y trouve le meilleur comme le pire. La pérennité est cependant mieux assurée qu'avec des produits propriétaires puisque, dans le pire des cas, un utilisateur motivé peut récupérer un logiciel laissé à l'abandon. Les risques sont globalement sur-estimés dans les discours habituellement entendus par les DSI mais que ceux-ci relativisent spontanément. La meilleure démonstration de l'adhésion des DSI au modèle est chiffrée : 92% des DSI utilisent dès à présent de l'open-source. Mais d'abord côté infrastructures et logiciels dédiés aux informaticiens.

En savoir plus

Téléchargement de la synthèse (gratuit contre qualification)

- 1er octobre 2009 : Open World Forum : les DSI n'ont plus à avoir peur de l'Open Source

- 2 octobre 2009 : Open World Forum : Les DSI parlent aux DSI

lundi 22 février 2010

L'Europe sous cloche

Source Les Echos - 15 Janvier 2010

LA CHRONIQUE D' ERIC LE BOUCHER

L'Allemagne vient de se faire dépasser par la Chine comme premier exportateur mondial. Areva s'est fait battre par un groupe coréen pour un contrat à Abu Dhabi. L'Europe a été écartée des discussions conclusives à Copenhague sur le climat, menées par le président américain et le Premier ministre chinois. Au chapitre de la régulation financière, l'Union est incapable d'imposer ses vues à l'Amérique et à l'Asie. Toutes les semaines, tous les jours, l'histoire du déclassement européen s'accélère.

La crise aurait dû être l'occasion d'un sursaut, d'un changement, d'une relance. Rien de tel. Le déclin est comme intégré et assumé. L'Asie nous flanque des pilées industrielles ? C'est normal, ils sont si nombreux. On ne peut rien contre la démographie. Et puis, après deux siècles de mise à l'écart, c'est leur tour. Rien à faire. L'Amérique, elle, nous domine dans les technologies et la société de la connaissance ? C'est normal, ils ont Google, après avoir eu Microsoft, Intel et IBM. Ils ont dans leurs gènes la course à « la nouvelle frontière ». Rien à faire.

Rien, sauf à renommer les mêmes, José Manuel Barroso à la Commission, Jean-Claude Juncker à l'Eurogroupe, malgré leur effacement durant la crise. Rien, sauf dupliquer les dispositifs institutionnels pour que l'immobilisme soit la seule chose qui se consolide en Europe. Le nouveau président de l'Union, Herman Van Rompuy, a inauguré son mandat tout neuf en annonçant les priorités (réécrire l'agenda de Lisbonne). Le lendemain, José Luis Rodriguez Zapatero, le président « tournant » du Conseil, un poste maintenu malgré la redondance, voulant marquer son existence, en a donné d'autres.

La crise signe l'échec de « l'Europe des nations ». L'idée, celle de stopper toute avancée fédérale, s'était imposée sitôt après Maastricht. Elle a été installée par le couple Chirac-Schröder, France et Allemagne de concert, gauche et droite réunies. Cette « Europe des nations » s'est d'abord perdue dans le long et difficile chemin de croix institutionnel nécessaire après l'élargissement ; dix ans d'errements. Ensuite, elle s'est, naturellement, ligotée dans le combat des nationalités. L'Allemagne voulait aider les usines allemandes d'Opel aux dépens des ouvriers espagnols, belges et anglais. Les plans de sauvetage des banques ont été élaborés au niveau national.

La crise aurait dû sonner l'heure européenne. L'ultralibéralisme a échoué et le modèle rhénan de régulation, de mixité Etat-marché, devrait s'imposer. L'Etat mais quel Etat ? Bruxelles ou les 27 capitales ? Question fondamentale à laquelle L'Europe des nations répond : les capitales. Mais la crise et l'accélération du monde rendent urgent un renouveau fédéral. Deux exemples.

La croissance européenne d'hier se composait de pays consommateurs (Espagne, Grande-Bretagne, France) et d'un pays producteur, l'Allemagne. C'était une reproduction du schéma Etats-Unis-Chine, à notre échelle. La crise en signe l'épuisement : les pays consommateurs vont épargner et, si l'Allemagne ne consomme pas, la croissance européenne restera morne, sans moteur. Au minimum, une coordination économique est devenue nécessaire (1).

La Grèce a ouvert une crise de l'endettement. Elle est la pointe bien avancée, comme on dit des fruits, des communs dérapages budgétaires des pays membres. Les ratios de dette filent vers les 100 % du PIB. Comment le gouvernement d'Athènes pourra-t-il imposer une austérité spartiate inévitable ? Faut-il faire appel au FMI ? Pourquoi ne pas instaurer un mécanisme incitatif en faisant prendre en charge les dépenses d'investissement par l'Union, comme le propose Laurence Boone, chef économiste de Barclays Capital (2) ?

« Il faut de la solidarité fiscale à l'intérieur de la zone euro », appuie Patrick Artus (3). Solidarité, c'est-à-dire fédéralisme.

Aucun politique ne sonne l'alarme. La seule idée nouvelle apparue est celle défensive, poussée par Nicolas Sarkozy, de taxer les importations des pays qui ne s'engagent pas à réduire leur CO2. Notre économie décroche, isolons-la, verte et bio. L'Europe sous cloche.

(1) « Priorités économiques de l'Europe 2010-2015 », mémo de l'institut Bruegel adressé au président Barosso, août 2009(2) « Que faire pour les Etats surendettés de la zone euro ? », Telos-eu.org(3) « La crise budgétaire de la zone euro », Flash, Natixis

La Cour de Cassation remet en cause la pratique du portage salarial

Source CIO Online - Edition du 22/02/2010 - par Bertrand Lemaire

Deux arrêts viennent singulièrement limiter l'intérêt du portage salarial.

Bien que la pratique, longtemps douteuse, du portage salarial ait été confirmée par une loi, la Cour de Cassation vient de rappeler certains principes qui en limitent singulièrement l'intérêt pratique. Or ce système est largement utilisé par des informaticiens indépendants. Cette solution garantit à l'intervenant le statut de salarié (avec ses avantages) et à l'entreprise utilisant ses compétences de n'avoir affaire qu'à un indépendant intervenant sur facture (avec les avantages induits) grâce à l'intervention d'un intermédiaire, l'entreprise de portage. Mais il n'en demeure pas moins que le salarié porté reste un salarié, ce que la Cour de Cassation vient violemment de rappeler dans deux affaires. Ainsi, tout d'abord, le manque d'activité durant deux mois ne peut ainsi pas justifier à elle seule le licenciement d'un indépendant porté. Second enseignement de ces jurisprudences, le cas très particulier du portage ne dispense pas la société de portage de garantir un volume horaire de travail, comme la loi oblige toute société utilisant des vacataires à le faire. Les sociétés de portage se retrouvent ainsi à aussi porter un risque économique qui n'était absolument pas prévu dans leur modèle initial. A moins de prendre des précautions juridiques supplémentaires.

En savoir plus

Sur le Jurisclasseur : Régime du contrat de portage salarial

samedi 13 février 2010

En 2009 le marché des télécom affiche sa plus faible croissance depuis 2002

Source Silicon.fr - vu le 13 Février 2010

Le 12-02-2010 - Par Christophe Lagane

Au delà de la crise économique, le secteur mondial des télécoms est marqué par des phénomènes structurels. L'arrivée de la 4G (LTE) sera-t-elle sa planche de salut?

A la veille de l'ouverture du Mobile World Congress de Barcelone, l'Idate a présenté ses prévisions du marché mondial des télécoms 2009 dans sa globalité : réseau, terminaux et services. Un marché moins malmené que la situation économique aurait pu le laisser croire puisque celui-ci a, globalement, augmenté de 1,7 % en valeur par rapport à 2008. Il s'établit désormais à 1440,7 milliards de dollars.

Il n'en reste pas moins que cette croissance de 1,7 % reste la plus faible depuis 2002, souligne l'Idate. Surtout, elle succède au précédent ralentissement de 2008 qui, avec une croissance de 3,8 %, perdait déjà 2 points par rapport à 2007.

« Cette baisse est due à des phénomènes structurels, à savoir la maturité des marchés qui ont mené la croissance par le passé, ainsi que la téléphonie mobile dans les pays industrialisés, combinés à des pressions concurrentielles et réglementaires, dont l'impact a été encore aggravée par le ralentissement économique », explique Carole Manero de l'Idate.

En d'autres termes, le marché ne sortira pas indemne de la récession économique. Mais le secteur peut s'appuyer sur ses fondations pour reprendre des couleurs. L'Idate relève ainsi la hausse continue de données consommées, essentiellement dû à la croissance du nombre d'utilisateurs qui a progressé de 14% en 2009. Selon le cabinet d'étude, jusqu'à 4,5 milliards de personnes dans le monde ont bénéficié d'un service de télécommunication en 2009. Mais cette croissance des clients parvient à peine à compenser le ralentissement du marché au fil des ans.

Les services d'accès constituent d'ailleurs le premier revenu du secteur des télécoms. Ils assurent à eux seuls plus de la moitié du chiffre d'affaires, jusqu'à 55% en 2009. Il n'en reste pas moins que la hausse des revenus des services de communication tend à ralentir : 707,4 milliards de dollars en 2007, 755,3 en 2008 et 784,7 en 2009. Soit des croissances annuelles respectives de 6,7 et 3,8%. Pour 2010, l'Idate prévoit cependant une amélioration à 823,7 milliards (+5%).

Stimulé par la démocratisation des smartphones et l'émergence des réseaux haut débit, les services de données et Internet, pour leur part, progressent sainement mais discrètement (entre 0,5 et 0,7 points par an). Avec 275 milliards de dollars générés en 2009, ils représentent 19% des revenus totaux contre 17% en 2006 avec 222,2 milliards et 15% en 2001. Plus de 63 millions d'utilisateurs ont souscris à un service d'accès mobile haut débit dans le monde. Soit plus de 5 millions de nouveaux abonnés par mois en moyenne.

Leur croissance ne suffit cependant pas à compenser la chute inexorable du marché du fixe passé de 427,3 milliards en 2006 à moins de 381 milliards en 2009. Cela ne s'arrangera guère en 2009; l'Idate avance une prévision de 364 milliards de dollars. Au final, en 2010, le marché global des télécom devrait s'élever à 1481,7 milliards de dollars, soit une hausse de 2,8%.

Le retour à une croissance à deux chiffres viendra-t-il du LTE (Long Term Evolution), ce réseau de nouvelle génération (4G) qui promettra des débits faramineux? A peine balbutian aujourd'hui, le LTE devrait séduire 380 millions de personnes, essentiellement dans les pays industrialisés (Etats-Unis, Europe, Scandinavie, Chine, Japon et Corée du Sud), d'ici 2015, prévoit l'Idate.

L'institut prévient cependant que « des services innovants et les modèles commerciaux, tels que la VoLTE voix sur LTE qui peut apporter des avantages tant pour les opérateurs et les abonnés, doivent être déployés si les opérateurs veulent maximiser le potentiel du LTE, maintenir les revenus par utilisateur et continuer à en faire un réseau 'intelligent' ». Maturité du marché et des usages obligent, le retour à la profitabilité passera donc par le déploiement rapide des services adéquates propres au nouveau réseau.

© 2000 - 2010 Silicon fr - VNU Business Media Europe

mercredi 10 février 2010

L’information : prochain défi pour les entreprises Pratiques de création de valeur par les SI et leur usage - CIGREF Capgemini Consulting

Source CIGREF - 10 Février 2010

L’information : prochain défi pour les entreprises

Pratiques de création de valeur par les SI et leur usage

Le lien entre la performance des entreprises, leur usage efficace de l’information et lamaturité de leur fonction SI est définitivement établi. L’étude CIGREF-Capgemini Consulting qui s’appuie d’une part sur les travaux du professeur Donald Marchand, de l’IMD à Lausanne, l’une des premières institutions universitaires en Europe, et d’autre part sur les interviews de 490 DSI à travers le monde, démontre le lien existant entre la maturité de la fonction SI, l’usage efficace que font les entreprises de l’information et leur performance (part de marché, rentabilité, innovation, réputation).

Mais, seules 37% des entreprises pensent que l’usage qu’elles font des SI et de l’information représente un atout concurrentiel. Ces entreprises sont celles dont la fonction SI a atteint un degré de maturité qui lui permet de dépasser le rôle de fonction support et de se positionner en partenaire des métiers. Les fonctions SI de ces entreprises, dont nous avons qualifié le positionnement de “Technologie Métier”, ont adopté les pratiques liées à leur industrialisation. De plus, elles se différencient par une grande implication dans la stratégie de l’entreprise et dans l’innovation. En effet dans 71% des cas, les entreprises concernées déclarent intégrer le potentiel du SI dans le processus d’innovation. Ces fonctions SI se sont notamment organisées pour identifier et mettre en oeuvre des innovations technologiques et organisationnelles capables de créer plus de valeur pour l’entreprise.

Enfin, et c’est là leur atout principal, ces entreprises ont franchi un premier cap dans l’utilisation du capital informationnel de l’entreprise. Elles ont pris conscience de la nécessité d’un management encourageant des comportements tournés vers la collecte, le partage et l’actualisation de l’information. Elles mesurent leur performance au travers d’indicateurs portant sur l’efficience des processus métiers. Elles ont amélioré leur capacité à identifier et promouvoir des managers et des employés dotés de compétences à la fois SI et opérationnelles. Les autres entreprises ont des fonctions SI qui en sont à des stades d’évolution intermédiaires.

Deux autres niveaux de maturité ont été identifiés dans l’étude. Les fonctions SI dites “Centre de Services”, qui représentent 39% de l’échantillon global (44% en France), se caractérisent par une relation client-fournisseur entre l’informatique et les opérationnels, la fonction SI fournissant des services SI selon des cahiers des charges définis avec les métiers. L’innovation technologique est utilisée par ces fonctions SI comme un levier pour développer leur capacité de fournisseur de services. Enfin, les fonctions SI “Utilitaire Technologique”, qui représentent 24% de l’échantillon global (16% en France), sont les moins avancées et se valorisent essentiellement par la bonne gestion de leurs ressources.

L’étude démontre aussi l’existence d’un parcours qui amène la fonction SI à évoluer progressivement et sans raccourci possible d’un stade de maturité à l’autre : du positionnement “Utilitaire Technologique” au positionnement “Centre de Services”, pour finalement aboutir au positionnement “Technologie Métier”. La création de valeur pour l’entreprise passe par une gouvernance intégrée de l’information et des SI. Il devient indispensable pour les entreprises de dépasser le cadre traditionnel du management des SI pour prendre en compte l’ensemble des facteurs liés à l’utilisation efficace de l’information. Progresser uniquement sur la dimension des SI ne produira pas les effets escomptés sur la performance des entreprises et ne fera qu’accroître la sous utilisation du potentiel des SI développés.

Les formes actuelles de gouvernance des SI doivent évoluer pour prendre en compte de façon explicite l’usage de l’information. Les DSI doivent devenir les ambassadeurs de cette réforme.

Dans le contexte économique actuel, les DSI ayant développé la maturité de leur fonction se sont distingués en sachant saisir les opportunités pour leur entreprise. Alors que les budgets ont été revus à la baisse, les attentes continuent de progresser : 82% des entreprises du secteur privé ont été concernées par un plan de réduction des coûts SI. Pourtant les DSI, contrairement à leur situation lors de la crise économique de 2001-2002, saisissent cette opportunité pour valoriser la contribution de leur fonction et la faire progresser en maturité dans l’entreprise.

Les fonctions SI les plus matures, correspondant au positionnement “Technologie Métier”, tout en optimisant leur coûts, ont réussi à maintenir des investissements ciblés sur les priorités stratégiques, grâce à une exécution plus rapide des mesures décidées, à une réelle capacité à accélérer les projets à fort impact ou à lancer de nouveaux projets pour saisir des opportunités pour l’entreprise.

A l’heure où beaucoup d’entreprises développent et renforcent leur modèle d’affaires, elles doivent également dynamiser leur capital informationnel en s’appuyant sur leur fonction SI : information matters!

L’usage effectif de l’information est donc bien le prochain défi des entreprises.

Télécharger "Synthèse - L'information : prochain défi pour les entreprises - Pratiques de création de valeur par les SI et leur isage : cartographie 2009" [pdf, 150 ko]

Télécharger le rapport complet "L'information : prochain défi pour les entreprises - Pratiques de création par les SI et leur usage : cartographie 2009" [pdf, 815 ko]

mardi 19 janvier 2010

Les affairistes de tout type étant nombreux dans ce domaine d'activité, cet article semble très bienvenu..

Source NETPME - Vu le 19 Janvier 2010

__Le portage salarial en pleine mutation_

Ces dernières années, le portage salarial s'est imposé comme un excellent compromis pour les professionnels du conseil et autres consultants souhaitant travailler en indépendant tout en bénéficiant du statut de salarié. Né en dehors de tout cadre légal jusqu'à la dernière loi de modernisation de l'économie, le portage a permis l'émergence d’une multitude de sociétés. Comment s'y retrouver pour le candidat au portage salarial ? Éléments de réponse…

Considéré par de nombreux consultants et professions de conseil comme le parfait compromis entre la sécurité du statut salarié et la liberté d'exercer sa propre activité à son compte, le portage salarial s'est imposé en France depuis une vingtaine d'années. On estime ainsi à environ 300, le nombre d’entreprises spécialisées dans le portage salarial. Entre 20.000 et 30.000 personnes utilisent aujourd'hui cette possibilité à mi-chemin entre le salariat et l'entrepreneur individuel.

Apparu en France au début des années 80, le portage salarial induit un contrat tripartite entre le salarié porté, le client et la société de portage. Le client peut être une entreprise, une administration, une collectivité locale ou encore une association. Avec ce système, il peut bénéficier de façon ponctuelle de compétences qu'il n'utiliserait pas de manière générale. De son côté, le porté signe un contrat de travail (CDD ou, moins souvent, un CDI temps plein ou temps partiel) avec une société de portage dont il est salarié. En revanche, il démarche lui-même ses clients. Le client final, lui, signe un contrat de mission avec la société de portage. Quant à cette dernière, elle facture la prestation du porté au client et verse au porté le montant des honoraires diminués des frais de gestion et des charges sociales et patronales.

Jusqu'à 2008 et la loi de modernisation de l'économie*, le statut du portage salarial n'avait jamais été clairement défini. Un flou juridique qui a favorisé l’émergence d’un secteur extrêmement hétérogène. Le législateur s'est emparé de la question, demandant aux partenaires sociaux de s'entendre sur un cadre légal afin de sécuriser ce marché. « On attendait depuis un certain temps déjà une réglementation de notre activité car on a vu une explosion du nombre d'entreprises de portage ces dernières années avec des pratiques parfois discutables et discréditant les autres acteurs sérieux », estime Jean-Charles Valet, président du Sneps (Syndicat national des entreprises de portage salarial). Une analyse partagée par Hubert Camus, gérant d'ABC Portage, un des plus gros acteurs du secteur en France. Pour lui, « il faut sécuriser le salarié porté. Le portage salarial n'est pas mature puisque sur 250 sociétés spécialisées, seule une dizaine dépasse les 10 millions d’euros de chiffre d’affaires. Même les entreprises qui ont recours aux salariés portés demandent désormais une clarification du secteur et recensent aujourd'hui les bons et les mauvais élèves ».

Un nouveau cadre

Afin de sécuriser le système, le portage salarial a fait l'objet de négociations entre les partenaires sociaux qui ont abouti à un point de convergence. Le portage salarial serait réservé aux cadres alors qu'une rémunération minimale brute de 2.600 euros pour un travail à temps plein pourrait se dessiner. « Les salariés portés ont un vrai niveau d'expertise et il ne nous semble pas aberrant qu'ils soient rémunérés en conséquence. En revanche, là où certaines entreprises de portages privilégient les contrats en CDI, nous préférons des CDD en fonction de la durée de la prestation. Aujourd'hui, il n'y a plus de point de blocage et nous devrions parvenir à un accord d'ici à la fin de l'année», indique le Prisme, fédération des professionnels de l'intérim qui a piloté les négociations. « On parlera bien d'un contrat de travail bipartite. D'autre part, on se dirige vers la mise en place de cautions bancaires pour assainir le secteur et garantir les salaires des portés», note Jean-Charles Valet, président du Sneps.

Ce nouvel encadrement du portage salarial ne satisfait pourtant pas tout le monde. « En bon libéral, je ne pense pas que c'est en réglementant tout que l'on règle les problèmes. Le portage salarial existe depuis la nuit des temps même s'il n'avait pas cette appellation. La nature a horreur du vide. On aura d'un côté cette nouvelle forme de portage encadré mais je crois qu'une nouvelle manière de proposer des prestations extérieures va émerger et nous travaillerons sur ces deux axes », explique ainsi Antoine Catta, DG de Links Conseil. Pour l’heure donc, difficile encore pour les indépendants candidats au portage salarial de s'y retrouver...

Quel coût ?

Les frais de gestion prélevés par les sociétés de portage varient dans une fourchette comprise entre 3 et 15 %, donnant au final pour le porté une rémunération de l'ordre de 50 % du montant total de la facturation auprès du client final. « Les frais de gestion ne doivent pas être le seul critère de sélection de la société de portage, avertit Jean-Charles Valet, président du Sneps. Certaines sociétés affichent des tarifs très bas mais sans réelle prestation et surtout avec de nombreux services payants. Les portés doivent faire attention à ces entreprises qui font du dumping tarifaire. Certaines vont même jusqu'à offrir les frais de gestion pendant une semaine ! Dans ce cas, il y a forcément une contrepartie cachée. » « La moyenne du secteur ressort aux environs de 10 %, estime Hubert Camus, gérant d'ABC portage. Des entreprises de portage qui font du low cost, ce n'est pas viable et je pense qu'il faut les fuir, sauf à prendre de gros risques. Des frais de gestion à 2%, c'est comme un garagiste cinq fois moins cher qu'un autre : il y a forcément quelque chose qui n'est pas clair derrière. »

Sachez également que la plupart des sociétés de portage salarial ont des taux de gestion dégressifs. Jusqu'à 70.000 euros de prestations annuellement facturées, leur taux pourra être de 10 %, mais il peut descendre autour de 8 % pour un montant facturé de 70.000 à 150.000 euros et jusqu'à 3 % pour le porté facturant 300.000 euros d'honoraires par an. « Pratiquer des taux de gestion compris entre 2 et 5 %, ce sera de toute façon impossible une fois que la profession sera encadrée », prédit Jean-Charles Valet.

Le portage face aux autres statuts

Portage salarial et auto-entrepreneuriat

Le principal avantage du portage salarial face au nouveau statut d'auto-entrepreneur réside dans le fait que le porté est salarié de l'entreprise de portage. À ce titre, il bénéficie de la protection sociale (retraite, chômage, formation). À l'inverse de l'auto-entrepreneur, le porté n'a pas de limite de seuil de chiffre d'affaires à ne pas dépasser. Si le salarié porté chiffre lui-même au client final le montant de sa prestation, il n'en touchera en moyenne qu'environ 50 %, une fois déduites les charges patronales et salariales ainsi que les frais de gestion pris par la société de portage.

Si on prend en compte le seul critère du revenu net, le statut d'auto-entrepreneur peut paraître plus avantageux puisque le chiffre d'affaires est « seulement » amputé des cotisations sociales et des achats. « Les deux statuts ne sont pas en concurrence car les salariés portés dégagent en moyenne 60.000 euros de salaires annuels alors que l'auto-entrepreneur ne peut pas dépasser 32.000 euros par an (pour les prestations de service, NDLR) », estime Jean-Charles Valet, dirigeant associé de Calleo Portage et président du Sneps qui regroupe une vingtaine des plus grosses sociétés de portage salarial. En qualité de salarié porté, vous pouvez également créer une activité complémentaire sous le régime de l'auto-entrepreneuriat et jongler entre les deux statuts suivant vos missions.

Portage salarial et entreprise individuelle

L'entreprise individuelle (EI) est le statut le plus courant pour les indépendants et notamment chez les consultants. Là encore, le portage salarial permet de bénéficier du statut et de la protection sociale. Autre avantage sur l’EI : le fait d'être déchargé de tous les aspects administratifs.

Sur le plan de la rémunération, l'EI peut en revanche être plus intéressante. L'entrepreneur individuel se rémunère en effet sur le résultat dégagé par son activité et paye les cotisations du régime des travailleurs non salariés (TNS) et l'impôt sur le revenu. Or, les cotisations sociales pour les salariés portés sont plus élevées que celles de l'entrepreneur individuel. Celui-ci bénéficie en effet d'une déductibilité de ses cotisations pour atteindre un taux réel de prélèvement de 31 % contre 45 % pour le régime des TNS. En revanche, l'entrepreneur individuel engage sa responsabilité personnelle, même si la loi de modernisation de l'économie lui permet désormais de protéger ses biens immobiliers en cas de difficultés.

Les métiers du portage salarial

Le portage salarial concerne principalement des interventions de prestations de services dans les domaines techniques, d'organisation ou de gestion, pour lesquels le consultant n'a aucun lien de subordination avec l'entreprise cliente (entreprise privée, administration, collectivité locale, association, etc.) Le portage salarial est en revanche incompatible avec les professions réglementées (avocat, expert-comptable, etc.) Le coaching, les métiers de la communication, de la finance, l'informatique, le marketing, les RH, etc. sont parmi les plus friands du portage salarial. Les salariés portés affichent donc un profil de cadre et une moyenne d'âge de 45 ans. « Ces dernières années, on a assisté à une évolution de la sociologie des salariés portés avec notamment l'arrivée de cadres ayant exercé dans des grands groupes avant d'être remerciés dans le cadre de restructurations. Le portage salarial leur propose une véritable opportunité de reconversion qui passe par l'indépendance», explique Jean-Charles Valet.

Six points clés pour choisir sa société de portage

1. Prendre son temps

Attirées par l'appât du gain, mais aussi par une législation encore ambiguë, une myriade d'entreprises se sont spécialisées dans le portage salarial. Toutes n'offrent pas, loin s'en faut, les mêmes services et les mêmes gages de qualité. Avant de vous engager, analysez sa viabilité (chiffre d'affaires, résultat, références, réputation, etc.). Pour faire ce choix, il est urgent de ne pas se presser.

2. Les frais de gestion

En règle générale, ces frais sont compris entre 8 et 15 %, incluant la gestion administrative de vos salaires. La moyenne du marché s'établit autour de 10 %. En dessous, de 6 %, méfiez-vous, cela peut induire de nombreux frais annexes. Faites-vous établir une simulation de feuille de paie avant de vous engager.

3. Les services proposés

La société de portage doit mettre à votre disposition des outils commerciaux élémentaires comme vos cartes de visite ou courrier à en-tête pour vos devis. Attention : certaines sociétés les facturent. Pensez aussi à regarder s'il existe des services complémentaires comme des offres de formations ou des plates-formes de mise en réseaux des portés.

4. Risque d'impayés

Les sociétés de portage fiables souscrivent une assurance contre les impayés pour les consultants portés. Si un client ne règle pas la prestation effectuée, vous êtes ainsi assuré de toucher votre salaire. C'est un gage de sécurité, surtout si vous avez beaucoup de clients différents.

5. Garantie de paiement

Posez-vous cette question: que se passe-t-il si votre société de portage dépose le bilan ? Le régime de garantie de paiement des salaires est assuré par l'AGS (Association pour la gestion du régime de garantie des créances des salariés), mais certaines sociétés de portage n'y cotisent pas. Le Sneps milite pour que les entreprises du secteur, en plus de l'AGS, se dotent d'une caution bancaire pour garantir les salaires. Le porté, en cas d'impayé, peut alors se retourner vers la banque auprès de laquelle la société de portage a souscrit cette caution.

6. Les frais abusifs

Certains facturent de nombreux services, parfois de façon abusive. Fuyez notamment les sociétés de portage qui facturent l'édition d'un bulletin de paye ou les frais de relance de clients. Ces prestations sont évidemment comprises dans les frais de gestion initiaux.




  • article L.1251-64. « Le portage salarial est un ensemble de relations contractuelles organisées entre une entreprise de portage, une personne portée et des entreprises clientes comportant pour la personne portée le régime du salariat et la rémunération de sa prestation chez le client par l'entreprise de portage. Il garantit les droits de la personne portée sur son apport de clientèle.

Dossier réalisé par Simon Janvier Le Journal des Entreprises

(Décembre 2009)

L'externalisation est devenue la règle dans les très grandes entreprises

Source CIO-Online.com - Edition du 18/01/2010 - par Bertrand Lemaire

Le cabinet Solucom et l'association Ae-SCM ont étudié les pratiques d'e-sourcing des entreprises françaises.

Le cabinet Solucom vient de publier une étude intitulée « Les pratiques du sourcing it en france » et réalisée en partenariat avec l'association de promotion du référentiel de bonnes pratiques en matière d'achats Ae-SCM. Réalisée à l'automne 2009, surtout auprès de très grands comptes internationaux, l'étude révèle que l'externalisation est devenue la règle. Si 60% des répondants à cette enquête administrée en ligne sont issus d'entreprises de plus de 5000 salariés, il n'en reste pas moins que le faible nombre de réponses (85 !) oblige à prendre les résultats chiffrés avec certaines réserves. Il convient donc de s'en tenir à de grandes tendances.

Ainsi, l'externalisation informatique est devenue courante en France : la majorité des entreprises y ont recours, aussi bien avec des équipes à l'extérieur de leurs locaux (plus des deux tiers) qu'à l'intérieur de ceux-ci (une grosse moitié des répondants) et en général avec plusieurs prestataires par entreprise. Mais cette externalisation est réalisée par des acquisitions négociées au coup par coup sur des critères économiques, sans étude d'opportunité technologique dans la plus grosse partie des cas et sans stratégie globale. Une fois l'acquisition réalisée, le service achat ne se préoccupe plus du suivi du contrat et c'est donc aux directions utilisatrices de la prestation d'assurer seules ce suivi.

Le critère économique étant dominant, la satisfaction vis-à-vis d'un prestataire ne justifie pas à elle seule la fidélité. Même si la plupart des répondants sont satisfaits, avec quelques réserves sur la qualité de service et le manque de pro-activité. La majorité des répondants considère que la mise en concurrence à chaque terme est naturelle. Dans le même ordre d'idée, un peu plus du dixième des entreprises utilisent de l'off-shore, ce qui était considéré jadis comme le plafond. L'off-shore risque donc de se développer à terme plus que prévu initialement.

En savoir plus

L'enquête de Solucom : texte complet

dimanche 17 janvier 2010

Botnets, réseaux sociaux, virtualisation : 2010, l’année de tous les dangers

Source LeMAGIT - Décembre 2009

C’est avec une belle unanimité que les spécialistes de la sécurité informatique dressent le bilan d’une année 2009 qui a notamment été marquée par l’indéboulonnable Conficker. Et c’est avec la même unanimité qu’ils brossent les contours d’une année 2010 qui ne devrait pas, pour les RSSI, être beaucoup plus reposante.

Pour BitDefender, les médias sociaux « seront sans doute parmi les principaux vecteurs d’infection de 2010. » Même son de cloche du côté de l’allemand G Data.

Chez Cisco, « les médias sociaux sont peut-être l’endroit où les cybercriminels viennent chercher de nouvelles victimes, mais le spam continue d’être un vecteur éprouvé pour amener les gens à télécharger des logiciels malveillants ou à acheter de faux médicaments. En 2010, le volume de spams devrait encore progresser de 30 à 40 %. » Pour Websense, même chose, « l’utilisation de l’e-mail comme vecteur d’attaques se perfectionnera. » Développement du haut débit oblige, c’est dans les économies émergentes que la croissance du spam est désormais la plus rapide. MessageLabs estime que, en moyenne, le spam a représenté 87,7 % du trafic e-mail de l’année. Des spams qui, désormais, recourent plus largement à des URL raccourcis pour tromper les destinataires.

Le botnet, couteau suisse du cybercriminel

Pour MessageLabs, 83,4 % des 107 milliards de spams distribués en 2009 sont partis d’ordinateur compromis – 5 millions détectés par MessageLabs – et organisés en botnet. Pour l’éditeur, les botnets constituent le mal de 2009 et devraient évoluer, en 2010, vers plus d’autonomie et d’intelligence – bref, l’adoption de véritables PCA – plan de continuité de l’activité – hautement automatisés. En 2009, MessageLabs attribue la palme au botnet Rustock qui, avec 14 millions de spams envoyés par minute, s’est octroyé 19 % du trafic des pourriels. Accessoirement, l’éditeur estime que le spam devrait fortement se localiser, sur le plan linguistique, et toucher de plus en plus les services de messagerie instantanée.

Les botnets sont également au cœur des préoccupations de BitDefender. Selon l’éditeur, des attaques en déni de service de grande ampleur sont susceptibles d’être lancées simplement… pour faire la démonstration de la puissance du réseau à un client potentiel. Une prévision à mettre en parallèle de l’analyse de Websense, selon qui les groupes contrôlant les botnets se livrent une concurrence de plus en plus rude. En outre, pour Kaspersky, les propriétaires de botnets devraient, courant 2010, continuer d’étendre une stratégie de « légalisation » de leurs activités, en enrôlant des internautes innocents, dans le cadre de programmes de partenariat, pour leur faire porter le chapeau de certaines activités, sans se salir les mains. Une stratégie portée notamment par des efforts toujours plus importants de monétisation des activités cybercriminelles, souligné, entre autres, par Trend Micro.

Ingénierie sociale et attaques ciblées

La plupart des éditeurs de solutions de sécurité s’accordent à constater la progression des efforts d’ingénierie sociale. Une stratégie que l’on retrouve dans les scareware, ces faux anti-virus qui réussissent le double exploit de se faire acheter par l’internaute et d’infester son ordinateur. Concrètement, F-Secure prévient déjà : la coupe du monde de football 2010 pourrait être l’occasion d’une recrudescence des opérations de phishing ou de spamming.

Conficker, la menace fantôme

Pour F-Secure, le groupe de travail Conficker, regroupant plusieurs éditeurs spécialistes de la sécurité, « est parvenu à empêcher Conficker de renvoyer des informations et de mettre sur pied un puissant botnet. » Pour autant, l’éditeur n’en reconnaît pas moins que « des millions d’ordinateurs sont toujours infectés par Conficker. » Un demi-aveu d’échec ? En fait, selon le groupe de travail Conficker, on comptait encore, fin octobre dernier, environ 7 millions d’ordinateurs infectés par Conficker à travers le monde. En cette fin décembre, il y aurait tout juste 500 000 de moins… Et si, en janvier dernier, c’est la marine française qui a fait parti des victimes, au début de ce mois de décembre, c’est l’ensemble du système informatisé de test d’admission aux écoles supérieures indiennes de management, le CAT, qui a bien failli être paralysé par Conficker et par Nimda.''

MessageLabs met aussi en garde contre les attaques ciblées visant à faire introduire, sur l’ordinateur du destinataire d’un e-mail, un logiciel malveillant. Au premier trimestre 2009, il fallait compter 60 attaques ciblées de ce type par jour, avec un pic à plus de 100 par jour en mars 2009, à l’occasion du G20. Le secteur public et les grandes administration seraient les plus visées avec 34,7 % des attaques ciblées. Le monde de la finance n’est pas oublié, à 10,6 %. Pour F-Secure, les attaques ciblées sur les services de banque en ligne sont d’ailleurs promises à un bel avenir.

Cloud, services en ligne, virtualisation… un nouvel eldorado

De son côté, Cisco recommande aux entreprises de recourir à des prestataires externes pour obtenir des fournisseurs de services en Cloud pressentis des informations détaillées sur leurs mesures de sécurité. Une recommandation que ne rejetteraient pas CA ou Fortinet, ni G Data ou Trend Micro, qui s’inquiètent de la sécurité des données dans les services en ligne. Accessoirement, pour Kaspersky – et quelques autres –, le service Google Wave pourrait s’offrir quelques gros titres l’an prochain.

BitDefendeur s’attend de son côté à ce que les pirates s’attèlent, en 2010, à la recherche de vulnérabilités dans les services de Cloud Computing – pour en prendre le contrôle ou en limiter l’accès – ainsi que dans les solutions de virtualisation sous-jacentes, à commencer par vSphere. La virtualisation, justement : pour Fortinet, elle est en tête des enjeux de sécurité pour 2010.

Les terminaux mobiles, nouveaux terrains de jeu

En vrac, ajoutons également que, pour Websense ou encore Trend Micro, il faudra se méfier des attaques dites de Search Engine Optimization (SEO) Poisining, consistant à pousser vers le ‘haut’ des résultats des recherches des sites compromis. F-Secure, Trend Micro, et Websense en outre également de risques d’attaques sur Mac OS X, mais aussi sur des terminaux mobiles tels que l’iPhone ou encore les Smartphones Android. Un analyse que l’on retrouve également chez BitDefender ou encore Kaspersky.

Enfin, F-Secure se hasarde sur un terrain glissant : l’éditeur prédit le développement des envois de spam selon la méthode du snowshoe, une méthode d’envoi consistant à multiplier les domaines déclarés comme expéditeurs afin, non seulement, de brouiller les pistes mais, surtout, d’altérer les statistiques servant de base au filtrage par réputation. Et, à terme, les contourner.

Cloud computing : les spécialistes plaident pour une gouvernance mondiale

Cloud computing : les spécialistes plaident pour une gouvernance mondiale

Source Silicon.fr _ Date : 15-01-2010

Par Olivier Robillart

Alors que des interrogations pointent sur le thème de la sécurisation du cloud computing, certains professionnels s’interrogent sur le besoin d’établir des règles communes.

Londres (InfoSecurity) – L’année dernière s’était terminée sur un fait d’actualité particulièrement critique. Pour la première fois, les services en nuage d’Amazon Web Services étaient clairement touchés par une menace extérieure. Une attaque de hackers avait alors été perpétrée contre les services de Cloud computing EC2 du géant américain.

Les explications données étaient alors que les hackers se sont donc introduits sans permission et ont pu installer leurs propres commandes de contrôle de l’infrastructure en ligne. Un cas qui a fait naître des interrogations chez les professionnels de la sécurité. Andrew Fourie, directeur des ventes de la société allemande Astaro confie : « Le problème du cloud est le fait que cela demande des efforts d'installation. De même, les investissements supportés peuvent être lourds surtout en termes de licences ». Pour autant, le responsable reste confiant en s’appuyant sur un rapport Gartner estimant que 50 % des machines seront virtuelles d’ici 2012.

Nombre de professionnels semblent donc s’accorer sur le fait que le cloud computing instaure une approche de « pay-as-you-go » qui a l'effet de réduire les cours et de les ajuster aux besoins d'une société. Pour autant, certaines interrogations planent encore. Comment opérer une bonne gestion de la donnée ? Qui est responsable de la donnée ? De même, comment orchestrer la mise en conformité avec le millefeuille des législations existantes. La question de la gouvernance se pose donc.

Un motif pour lequel certains spécialistes confient : « Certains responsables se lèvent le matin en se demandant quelle loi vont-ils violer aujourd'hui. » Objectif est donc de créer une communauté d’intérêts pour la sécurité du cloud avec des acteurs tels que l'Enisa, Google, Microsoft, KPMG... Un vœu pieu car, de leur propre aveu, une telle entreprise coûte beaucoup d'argent et de temps.

© 2000 - 2010 Silicon fr - VNU Business Media Europe

Des hackers s’introduisent dans EC2, l'offre de cloud d’Amazon

Source Silicon.fr - date 10-12-2009

Par Olivier Robillart

Le piratage de l'infrastructure en nuage EC2 d'Amazon Web Services relance la question de la sécurisation du cloud computing.

Pour la première fois, les services en nuage d’Amazon Web Services sont clairement touchés par une menace extérieure. Le site Computerworld rapporte qu’une attaque de hackers a été perpétrée contre les services de Cloud computing EC2 du géant américain. Explications.

A en croire Don DeBolt, directeur de la recherche des menaces pour HCL Technologies, les hackers se sont donc introduits sans permission et ont pu installer leurs propres commandes de contrôle de l’infrastructure en ligne.

Si le chercheur se refuse à décliner l’identité des sites qui ont été touchés par l’intrusion, il explique que le logiciel pirate Zeus a pu être enlevé du réseau. Pour information, le botnet Zeus sert principalement à dérober des mots de passe et autres identifiants afin de pouvoir générer plusieurs millions de dollars, notamment dans le cadre d'opération à la fraude bancaire.

Selon le chercheur la méthode utilisée par les hackers serait plutôt simple dans le sens où ils auraient réussi à dérober un mot de passe d’un administrateur d'un site hébergé sur EC2 afin de pouvoir s’introduire.

Reste donc de nombreuses interrogations quant à la sécurisation d’EC2, le Cloud d’Amazon mais plus généralement de l'informatique en nuage dans son ensemble. Du côté de la législation, notamment américaine, il semblerait que la réglementation soit en retard sur les attaques contre les services placés en nuages.

Selon certains chercheurs en sécurité, les hackers pourraient s’engouffrer dans cette brèche et développer de nouvelles attaques contre le cloud. Déjà très « à la mode » cette année, ces types d’attaques deveniendront-ils la tendance de 2010 ?

vendredi 25 décembre 2009

L’information : prochain défi pour les entreprises Pratiques de création de valeur par les SI et leur usage - CIGREF Capgemini Consulting

Source CIGREF - 25 Décembre 2009

L’information : prochain défi pour les entreprises

Pratiques de création de valeur par les SI et leur usage

Le lien entre la performance des entreprises, leur usage efficace de l’information et lamaturité de leur fonction SI est définitivement établi.

L’étude CIGREF-Capgemini Consulting qui s’appuie d’une part sur les travaux du professeur Donald Marchand, de l’IMD à Lausanne, l’une des premières institutions universitaires en Europe, et d’autre part sur les interviews de 490 DSI à travers le monde, démontre le lien existant entre la maturité de la fonction SI, l’usage efficace que font les entreprises de l’information et leur performance (part de marché, rentabilité, innovation, réputation).

Mais, seules 37%des entreprises pensent que l’usage qu’elles font des SI et de l’information représente un atout concurrentiel. Ces entreprises sont celles dont la fonction SI a atteint un degré de maturité qui lui permet de dépasser le rôle de fonction support et de se positionner en partenaire des métiers. Les fonctions SI de ces entreprises, dont nous avons qualifié le positionnement de “Technologie Métier”, ont adopté les pratiques liées à leur industrialisation. De plus, elles se différencient par une grande implication dans la stratégie de l’entreprise et dans l’innovation. En effet dans 71% des cas, les entreprises concernées déclarent intégrer le potentiel du SI dans le processus d’innovation. Ces fonctions SI se sont notamment organisées pour identifier et mettre en oeuvre des innovations technologiques et organisationnelles capables de créer plus de valeur pour l’entreprise.

Enfin, et c’est là leur atout principal, ces entreprises ont franchi un premier cap dans l’utilisation du capital informationnel de l’entreprise. Elles ont pris conscience de la nécessité d’un management encourageant des comportements tournés vers la collecte, le partage et l’actualisation de l’information. Elles mesurent leur performance au travers d’indicateurs portant sur l’efficience des processus métiers. Elles ont amélioré leur capacité à identifier et promouvoir des managers et des employés dotés de compétences à la fois SI et opérationnelles. Les autres entreprises ont des fonctions SI qui en sont à des stades d’évolution intermédiaires.

Deux autres niveaux de maturité ont été identifiés dans l’étude. Les fonctions SI dites “Centre de Services”, qui représentent 39% de l’échantillon global (44% en France), se caractérisent par une relation client-fournisseur entre l’informatique et les opérationnels, la fonction SI fournissant des services SI selon des cahiers des charges définis avec les métiers. L’innovation technologique est utilisée par ces fonctions SI comme un levier pour développer leur capacité de fournisseur de services. Enfin, les fonctions SI “Utilitaire Technologique”, qui représentent 24% de l’échantillon global (16% en France), sont les moins avancées et se valorisent essentiellement par la bonne gestion de leurs ressources.

L’étude démontre aussi l’existence d’un parcours qui amène la fonction SI à évoluer progressivement et sans raccourci possible d’un stade de maturité à l’autre : du positionnement “Utilitaire Technologique” au positionnement “Centre de Services”, pour finalement aboutir au positionnement “Technologie Métier”. La création de valeur pour l’entreprise passe par une gouvernance intégrée de l’information et des SI. Il devient indispensable pour les entreprises de dépasser le cadre traditionnel du management des SI pour prendre en compte l’ensemble des facteurs liés à l’utilisation efficace de l’information. Progresser uniquement sur la dimension des SI ne produira pas les effets escomptés sur la performance des entreprises et ne fera qu’accroître la sous utilisation du potentiel des SI développés.

Les formes actuelles de gouvernance des SI doivent évoluer pour prendre en compte de façon explicite l’usage de l’information. Les DSI doivent devenir les ambassadeurs de cette réforme.

Dans le contexte économique actuel, les DSI ayant développé la maturité de leur fonction se sont distingués en sachant saisir les opportunités pour leur entreprise. Alors que les budgets ont été revus à la baisse, les attentes continuent de progresser : 82% des entreprises du secteur privé ont été concernées par un plan de réduction des coûts SI. Pourtant les DSI, contrairement à leur situation lors de la crise économique de 2001-2002, saisissent cette opportunité pour valoriser la contribution de leur fonction et la faire progresser en maturité dans l’entreprise. Les fonctions SI les plus matures, correspondant au positionnement “Technologie Métier”, tout en optimisant leur coûts, ont réussi à maintenir des investissements ciblés sur les priorités stratégiques, grâce à une exécution plus rapide des mesures décidées, à une réelle capacité à accélérer les projets à fort impact ou à lancer de nouveaux projets pour saisir des opportunités pour l’entreprise.

A l’heure où beaucoup d’entreprises développent et renforcent leur modèle d’affaires, elles doivent également dynamiser leur capital informationnel en s’appuyant sur leur fonction SI : information matters! L’usage effectif de l’information est donc bien le prochain défi des entreprises.

Télécharger "Synthèse - L'information : prochain défi pour les entreprises - Pratiques de création de valeur par les SI et leur isage : cartographie 2009" pdf, 150 ko

Télécharger le rapport complet "L'information : prochain défi pour les entreprises - Pratiques de création par les SI et leur usage : cartographie 2009" pdf, 815 ko

mardi 24 novembre 2009

La Commission Européenne approuve le Paquet Telecom

Source NetEco - Publié par Guillaume Belfiore le Mardi 24 Novembre 2009

Aujourd'hui le parlement Européen a officiellement adopté plusieurs mesures proposées en novembre 2007 et constituant le paquet de réformes des télécommunications. Parmi les points clés de ce dossier notons la volonté d'un marché plus compétitif, la diffusion de l'Internet haut-débit et la protection de la vie privée du citoyen de l'Union.

Les 500 millions d'Européens bénéficieront de nouveaux droits régis par différentes mesures. C'est ainsi qu'il sera possible de changer d'opérateur fixe ou mobile en un jour ouvrable tout en conservant son ancien numéro de téléphone. Aujourd'hui, le temps de migration moyen est de 8,5 jours au sein de l'Union pour un numéro de téléphone mobile et de 7,5 jours pour une ligne fixe. Notons par ailleurs que la durée initiale d'un contrat signé avec un opérateur ne pourra dépasser 24 mois avec la possibilité de conclure ce dernier au bout d'un an. Les consommateurs devraient également être mieux informés sur les services auxquels ils se sont abonnés et les éventuelles contraintes liées à leur contrat.

Cette nouvelle réglementation prévoit par ailleurs que chaque pays de l'Union respecte « les libertés et droits fondamentaux des citoyens tels qu'ils sont garantis par la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales et les principes généraux du droit communautaire ». Il s'agit en effet de respecter la présomption d'innocence et le droit à la vie privée. Concernant la neutralité du net, la Commission se réserve le droit de demander des niveaux de qualité minimale pour les services de transmission en réseau. En effet, certains FAI privilégieraient certaines technologies telles que la TV sur IP au détriment d'autres services.

Le respect de la vie privée passe principalement par une meilleure gestion des données personnelles telles que le nom, l'adresse électronique ou encore les données bancaires. Les prestataires de services ont désormais l'obligation de notifier toute violation auprès des autorités tout en informant leurs clients. Bien entendu cette mesure vise à responsabiliser davantage les FAI et opérateurs. Toujours concernant le respect de la vie privée, les internautes devraient être mieux informés des données qu'ils partagent sur la Toile, par exemple concernant l'utilisation des cookies.

Si 70% des internautes de l'Union ont accès à l'Internet haut-débit, la Commission souhaite réduire cette fracture numérique ; une initiative qui passe notamment par « une meilleure gestion du spectre radioélectrique et la mise de radiofréquences à la disposition effective de services sans fil à haut débit dans des régions où construire une nouvelle infrastructure en fibres coûte trop cher ». Le 30 novembre 2011, le passage à la télévision numérique terrestre permettra de libérer près de 80% de ces fréquences avec pour objectif : l'Internet haut-débit pour tous en 2013.

Notons par ailleurs que les Européens devraient accéder plus facilement au numéro d'urgence, le 112. Plusieurs mesures seront ainsi mises en place pour le rendre plus accessible auprès des personnes handicapées et les opérateurs mobiles seront obligés de transmettre aux services d'urgence les informations sur la localisation de l'appelant.

Pour de plus amples informations sur les nouveaux droits du citoyen européen rendez-vous ici.

Les textes seront signés demain, mercredi 25 novembre et entreront en vigueur le 18 décembre lors de leur publication au Journal Officiel de l'Union Européenne. Au printemps prochain, la Commission mettra en place l'Organe des régulateurs européens des communications électroniques. Enfin chaque état membre devra transposer ces différentes dispositions du Paquet Telecom au sein de leur droit national au plus tard en juin 2011.

vendredi 13 novembre 2009

MySQL, le caillou qui ne sort plus de la chaussette d’Oracle

La Commission européenne a livré en début de semaine une première évaluation de ses objections, qui la conduise à s'opposer formellement au rachat de Sun par Oracle.

Publié par Jonathan Charton de 01net., le 12/11/2009 à 13h21

La Commission européenne a émis lundi une partie de ses objections autour de la fusion Oracle/Sun. L'information a fait surface au travers d'une communication officielle entre Sun Microsystems et la Securities and Exchange Commission, le gendarme des marchés financiers outre-Atlantique. Et sans surprise, MySQL est bien le point bloquant de cette fusion. Selon ce rapport, la commission estime que « la combinaison de MySQL avec la base de données d'Oracle aura des effets négatifs sur le marché des bases de données ».

Le 20 août dernier, pourtant, la justice américaine s'était prononcée en faveur d'Oracle, à la lumière de l'Hart-Scott-Rodino Act de 1976 qui donne le la juridique en matière de concentration du marché économique et de politique antitrust. Mais tout comme en 2001 dans le cas de l'acquisition d'Honeywell par General Electric, l'Union européenne a décidé de brandir son veto.

Toutefois, l'objection que vient d'émettre la Commission n'a pour le moment aucun caractère définitif. Celle-ci a encore jusqu'au 19 janvier 2010 pour terminer l'examen du projet. D'ici là, Oracle doit être capable de prouver sa bonne foi et de justifier que le rachat ne nuira pas au devenir de la base de données open source MySQL. « MySQL est open source et ne peut être contrôlé par personne ! »

Mais Larry Ellison a la sang chaud et il aura fallu moins d'un jour pour qu'il réagisse. Dans un communiqué rendu public, Oracle se défend vertement des maux dont on l'accuse : « Cette transaction ne menace pas de réduire la compétition au minimum, même sur le marché des bases de données, peut-on lire. Les objections de la Commission témoignent d'une profonde incompréhension de la compétition dans le marché des bases de données et de la dynamique de l'open source. MySQL est open source et ne peut être contrôlé par personne ! », clame le communiqué.

Il n'empêche que la Commission ne semble pas disposée à donner raison aux arguments d'Oracle, même si, comme la firme américaine le souligne à juste titre, il y encore de nombreux acteurs dans le marché des bases de données, les plus éminents étant IBM, Microsoft et Sybase.

Seulement, le temps passe et alors que chacun essaie de tirer la couverture vers soi, Sun est exsangue. La compagnie vient de publier des résultats trimestriels catastrophiques. Dans tous les secteurs que couvre la compagnie, les ventes plongent de près d'un tiers. Et 120 millions de dollars supplémentaires viennent d'être perdus sur le trimestre.

Or, selon les révélations du Wall Street Journal confirmées depuis, c'est un troisième larron qui se serait immiscé dans la bataille aux alentours de la mi-septembre. Et pas des moindres : SAP, sous la houlette de son PDG Leo Apotheker, aurait proposé à Oracle d'appuyer la fusion et d'influer sur la décision, moyennant un arrangement vis-à-vis de l'affaire Tomorrownow, dans laquelle les deux éditeurs sont toujours en conflit. Par ailleurs, chez SAP, certains décideurs se préoccupent d'avantage de Java que de MySQL. Selon eux, c'est avant tout sur Java que se trouve le véritable problème lié au rachat de Sun par Oracle. Cependant ce dossier a, semble-t-il, moins retenu l'attention de l'Union européenne.

samedi 7 novembre 2009

Bruxelles valide le plan multifibres de l'Arcep

Source Silicon.fr - 06-11-2009 - Par Christophe Lagane

L'offre de déploiement multifibres à domiciles dans les immeubles des zones denses devrait entrer en vigueur avant la fin de l'année.

La Commission européenne vient de rendre un avis favorable aux décisions de l'Arcep (Autorité de régulation des communications électroniques et des postes) concernant les modalités du déploiement du très haut débit en France. Au début de l'été, l'Autorité préconisait le déploiement en mode multifibres dans les immeubles pour les zones les plus denses en France. Ce qui assure à l'abonné un choix varié de prestataires et, à ces derniers, l'indépendance d'exploitation de leur réseau très haut débit.

Pour s'assurer de la validité, notamment juridique, de ce plan, le gendarme des télécoms avait soumis ses propositions auprès des instances européennes le 5 octobre dernier. Un mois plus tard, Bruxelles approuve donc les axes de déploiement de la fibre optique proposés par l'Arcep.

La Commission va même jusqu'à encourager le régulateur national dans sa démarche et l'invite à vérifier l'application et la pertinence de ses choix, pour assurer une véritable concurrence sur l'accès du très haut débit en France. « Si ce n'était pas le cas, ajoute la Commission, l'Arcep devra envisager d'autres moyens, comme le découplage de l'accès à la boucle locale fibre, à l'opérateur dominant. » Autrement dit, obliger à l'opérateur qui câble l'immeuble d'ouvrir l'accès à ses infrastructures aux concurrents. Et, en cas de désaccords persistants entre opérateurs sur leurs offres tarifaires, l'Arcep pourra les obliger à soumettre leurs tarifs pour validation avant leur publication.

Après le feu vert de l'Autorité de la concurrence, l'Arcep reçoit donc celui de Bruxelles. Voilà qui ne va guère arranger les affaires d'Orange qui s'oppose au déploiement multifibres et a décidé de geler ses investissements dans le très haut débit en prétextant un surcoût insurmontable des opérations. Free en premier lieu, mais aussi SFR, partagent de leurs côtés l'analyse de l'Arcep.

Celle-ci doit encore soumettre son plan à la commission consultative des communications électroniques puis au ministre en charge des communications électroniques pour l'Industrie (Christian Estrosi en l'occurrence) pour homologation avant sa publication et son entrée en vigueur d'ici à la fin de l'année. Les offres très haut débit à domicile devraient enfin décoller en 2010. Sauf si le gouvernement l'entend d'une autre oreille. Gervais Pellissier, directeur financier de France Télécom, déclarait récemment que «le régulateur n'a pas carte blanche pour décider à lui tout seul de la réglementation qu'il souhaite» et qu'«un certain nombre de décisions relève du pouvoir exécutif». Des menaces ?

"Note de TNIS : Ce que l'on ne voit pas très bien, c'est qui devra financer quoi ? Il semble normal que France Telecom se fasse tirer l'oreille s'il s'agit pour elle de faire le gros du travail pour ses concurrents.... Si un lecteur pouvait nous expliquer un peu plus précisement...''

2009 : une année de transition pour l’industrie informatique en France

Source Linformaticien.com - le vendredi 6 novembre 2009par Bertrand Garé

Le Syntec Informatique a dressé un bilan de l’activité du secteur sur l’année et a dévoilé les perspectives de l’année prochaine. Si 2009 a été difficile, 2010 devrait être marquée par un regain de l’activité.

Contrairement aux propos que tenaient encore les dirigeants des grandes entreprises du secteur au premier semestre, le secteur informatique n’a pas été épargné par la plus grande crise économique que le monde ait connu. Tous les secteurs de l’informatique ont connu une décrue en 2009. Le conseil, avec en particulier le secteur de l’externalisation de la recherche et développement, a été très pénalisé. Les autres secteurs limitent les dégâts avec des baisses de l’ordre de 2,5 % sur l’année.

Ces chiffres sont à mettre en rapport avec l’écroulement de l’investissement des entreprises (-7 %). Contrairement aux autres crises, l’informatique ne semble plus être la variable d’ajustement, même si la baisse des coûts reste la priorité des entreprises.

Le secteur public, les services aux collectivités et l’énergie restent les premiers pourvoyeurs de projets pour 2009.

+2% en 2010

La conjoncture devrait être un peu meilleure l’année prochaine avec une croissance estimée à 2 % du fait de plusieurs catalyseurs comme l’externalisation et l‘optimisation des services informatiques, la mise en conformité avec les nouvelles réglementations, de nouvelles fusions et acquisitions dans la banque en particulier, et des secteurs en pointe comme la mobilité, les logiciels embarqués et la dématérialisation.

Pour les dirigeants du secteur, le pire semble être passé comme le souligne l’indicateur de confiance du baromètre des dirigeants du Syntec Informatique. Il faut encore que les entreprises reprennent le chemin des investissements. La situation reste donc incertaine.

samedi 31 octobre 2009

Systèmes de contrôle et de gestion dans le collimateur des cybercriminels : neuvième rapport de la Centrale d’enregistrement et d’analyse pour la sûreté de l’information

Source La Centrale d'enregistrement et d'analyse pour la sûreté de l'information MELANI - 30 Octobre 2009

Les systèmes de surveillance, de contrôle et de gestion des installations industrielles et des infrastructures se retrouvent toujours plus souvent dans la ligne de mire des cybercriminels. De même, on constate que, plutôt que de passer par des courriels comportant des pièces jointes ou des liens, les attaques se font à l'aide de sites web infectés (drive-by download). Tels sont deux des principaux thèmes abordés dans le neuvième rapport semestriel de la Centrale d'enregistrement et d'analyse pour la sûreté de l'information (MELANI). Ce rapport livre un aperçu de la situation au premier semestre 2009.

Outre les dangers actuels que sont le cheval de Troie Gozi, l’utilisation abusive de comptes de courrier électronique suisses ou l’envoi de maliciels via des courriers électroniques adressés spécifiquement à des cadres, le rapport s’intéresse à la mise en danger croissante des systèmes SCADA et à l’augmentation des infections par drive-by download.

Menace sur les systèmes SCADA

Les systèmes SCADA (Supervisory Control and Data Acquisition) servent à surveiller, contrôler et gérer des installations industrielles ou des infrastructures de distribution des biens de première nécessité que sont l’électricité, l’eau et les carburants ; ils sont aussi utilisés dans le secteur des transports et du trafic. Leur utilisation est inimaginable sans les technologies de l’information et de la communication (TIC). Les systèmes SCADA actuels recourent toujours plus fréquemment aux technologies de l’Internet pour communiquer avec l’ordinateur central, avec pour corolaire qu’ils sont soumis aux mêmes menaces que celles qui planant sur Internet, où sévissent maliciels et pirates informatiques. Il s’agit de relever la sécurité de ces systèmes essentiels au fonctionnement de notre société, ceci non seulement en compliquant la tâche aux pirates à l’origine des actions de sabotage mais aussi en réduisant au mieux les conséquences de possibles dérangements techniques susceptibles d’entraîner l’arrêt de systèmes importants.

Augmentation des infections par drive-by download

Concernant la diffusion des maliciels, on constate clairement une modification au niveau des vecteurs d’infection. La voie classique de diffusion par le biais de courriers électroniques comprenant des annexes ou des liens ne fonctionne plus efficacement depuis que les usagers, toujours plus sensibilisés au problème, s’abstiennent de cliquer sur chaque lien reçu par e-mail et d’ouvrir des annexes aguicheuses. En revanche, on trouve davantage de sites Internet piratés et dotés de codes malveillants, si bien que le visiteur charge à son nom un maliciel simplement en surfant sur le site (drive-by). Souvent, les sites Internet piratés font partie d’offres sérieuses et populaires. Il ne faut donc pas sous-estimer le rôle joué par les moteurs de recherche. Les pirates essayent notamment de compromettre des sites Internet souvent très bien indexés dans les moteurs de recherche et qui sont en outre mal protégés ou présentent des lacunes de sécurité.

- MELANI Rapport semestriel 2009/1

vendredi 30 octobre 2009

Externalisation : les DSI français restent assez conservateurs

Une étude menée par Accenture auprès de 164 entreprises du Benelux révèle que les directeurs informatiques ont une approche essentiellement tactique de l’externalisation d’applications.

Source Olivier Discazeaux -01net. - le 28/10/2009 à 17h06

Les vieilles habitudes ont la vie dure. Les directions informatiques continuent de mesurer la performance de leurs prestataires sur la base de critères traditionnels voire obsolètes. C'est l'un des enseignements d'une étude réalisée par Accenture sur les pratiques des entreprises en matière d'externalisation des applications. Un périmètre dans lequel la SSII inclut toutes les prestations à engagement de service liées au développement ou à la maintenance de logiciels (projets au forfait, tierce maintenance applicative...). Pour réaliser cette étude, la SSII a missionné un cabinet externe qui a interrogé 164 entreprises (DSI et responsables d'externalisation) en France, aux Pays-Bas et en Belgique de mars à mai 2009.

Critères de mesure du succès d'un projet d'externalisation d'application agrandir la photo

L'un des premiers indicateurs de mesure de la qualité de la prestation supervisé par les DSI reste ainsi la disponibilité des systèmes. « Même s'il s'agit d'un critère important, il est dommage que les entreprises restent encore figées sur ce critère », juge Alain Robbe, responsable de l'activité externalisation chez Accenture pour la France et le Benelux et pilote de l'étude. Arrive en deuxième position la sempiternelle réduction des coûts, là aussi un critère immuable.

Les indicateurs plus élaborés tels que la souplesse, la réactivité du prestataire ou la contribution aux objectifs commerciaux (c'est-à-dire à l'activité de l'entreprise) ne sont mentionnés que par, respectivement, 33 % et 27 % des DSI français interrogés. En clair, les DSI se basent encore sur des critères essentiellement techniques pour piloter les projets externalisés.

Aux Pays-Bas, les DSI semblent plus matures : les critères de souplesse et de contribution à l'activité de l'entreprise sont davantage mentionnés (voir diapositive ci-dessus). « En France, les DSI ont tendance à empiler les indicateurs, les SLA pour se sécuriser. Les entreprise hollandaises ont moins d'indicateurs de suivi mais ils sont davantage orientés métier que technique », relève Alain Robbe.

Des projets stratégiques peu externalisés

L'étude dresse par ailleurs le constat d'une approche « tactique plutôt que stratégique de l'externalisation des applications informatiques » de la part des DSI. « Peu d'entreprises vont voir leur prestataire pour définir un plan d'évolution à trois ou cinq ans du périmètre applicatif externalisé », illustre Alain Robbe. Les projets d'externalisation actuels des DSI portent davantage sur des opérations éprouvées de maintenance logicielle ou d'hébergement de blocs applicatifs que sur des opérations plus ambitieuses de rénovation d'une partie de leur patrimoine applicatif.

Les projets d'externalisation en cours ou prévus dans les deux années à venir agrandir la photo

Néanmoins, la consolidation des applications centrales et historiques (dites legacy) devrait devenir un thème plus important dans les deux années à venir : 20 % des entreprises en ont fait une priorité (voir diapositive ci-contre). Reste que, crise oblige, les donneurs d'ordre parent au plus pressé à l'heure actuelle. Les DSI cherchent avant tout à répondre aux contraintes de réduction des coûts imposées par leur direction générale plutôt qu'à se consacrer aux projets de transformation de leur informatique.

A la faveur de la crise, leur priorité a porté en 2009 sur la baisse de tarifs des prestataires, la renégociation des contrats et la réduction du nombre de fournisseurs qui apporte des économies d'échelle (voir diapositive ci-dessous). Le regroupement des prestations de maintenance réalisées auparavant en régie s'est ainsi poursuivie. Afin de répondre à cette pression sur le prix, l'offshore est évidemment devenue une composante essentielle de l'argumentaire commercial des prestataires.

Impact de la crise économique sur les initiatives d'externalisation d'applications agrandir la photo

L'article publié à l'origine est ICI.

mercredi 28 octobre 2009

Publications CIGREF en 2009

   * Business Intelligence : place de la BI et pilotage des projets BI dans les grandes organisations
   * Cahier de recherche n° 5 : Valeur et performance des SI
   * CCU - La Communication Collaborative Unifiée : Etat de la réflexion des grandes entreprises
   * Le Contrôle interne du SI des organisations (en partenariat avec l'IFACI)
   * Modèle d'analyse et de benchmarking des coûts informatiques : Quels leviers pour piloter vos coûts ?
   * Nomenclature 2009 : Les emplois-métiers du SI dans les grandes entreprises
   * Ralentissement de l'activité économique : Quel impact sur la stratégie des acteurs ?
   * Les Référentiels de la DSI : Etat de l'art, usages et bonnes pratiques
   * Relations DSI Métiers : Vers une gouvernance commune du système d'information
   * SI éco-responsable : L'usage des TIC au service de l'entreprise durable
   * Usage des TIC et RSE : Nouvelles pratiques sociales dans les grandes organisations (en partenariat avec l'ORSE)

C'est là ;-)

mardi 5 mai 2009

Technologies de l’information et développement durable… Tendance smart green ?

Source Blog_Experts_Le_Monde_Informatique - Vu le 4 Mai 2009

Tribune de Gilles Berhault, président d’ACIDD (www.acidd.com) et fondateur de TIC21Auteur de Développement durable 2.0. L’Internet peut-il sauver la planète. (Ed. de l’Aube. 2009). (www.gillesberhault.com)

Il y a 18 mois avait lieu le Grenelle de l’environnement… Quelques uns d’entre nous pensaient que les technologies avaient un rôle à jouer. Nous n’avons pas été entendus. Déjà nous ne pouvons nier que nous vivons totalement dans une société de communication. Attention “société de la communication”, “économie de la connaissance” ne sont pas des gros mots. Il ne sont pas synonymes d’excès du libéralisme, de risque sanitaire et de fractures sociales… C’est cela et bien autre chose. Les technologies de la communication sont présentes dans nos vies, que l’on essaye de rendre plus durables ET plus agréables.

En quelques mois, la situation a basculé. L’Europe a pris des positions (19 et 20 mars à Bruxelles) et publié un rapport proposant des solutions ambitieuses. Les industriels et les opérateurs de téléphonie ont étudié les impacts et perspectives situant leurs objectifs à 2020. L’Etat français a aussi fait un rapport réalisé par le Ministère de l’énergie et de l’écologie (le MEEDDAT) et le CGTI (Bercy). Une mission a été confiée à Michel Petit par Bercy pour faire des propositions sur le sujet…

La DIACT et ACIDD -association que je préside- ont animé pendant un an des travaux sur « Aménagement numérique et développement durable des territoires ». Une journée de forum a permis, le 10 mars dernier de présenter 37 propositions, une méthode de travail, des partenariats d’action… devant plus de 400 acteurs des territoires.

Les Clean Tuesday ont été créés. Le MEDEF, les organisations sectorielles des telecoms s’associent avec l’Etat et ACIDD pour créer un Prix sur les green tech.

De nombreux colloques, réunions, rapports, groupes de travail s’intéressent au sujet… et par une opportunité politique, une secrétaire d’état, experte du développement durable prend la charge de la prospective et de l’économie numérique.

Je pourrais aussi parler des agendas 21 qui s’intéressent de plus en plus au 2.0… et bien sûr du livre que j’ai publié aux Editions de l’Aube : “Développement durable 2.0, l’Internet peut-il sauver la planète ?”, avec un succès qui me surprend, et de nombreux messages de sympathie comme la préface de Catherine Trautmann ou une citation encourageante dans le livre d’Alain Juppé (Edition Plon p. 227).

Sans oublier l’engagement du MondeInformatique.fr à nous informer sur les IT green techs.…

Nous sommes dans des civilisations numériques et globales et en même temps, dans la conscience d’une planète qui vit ses limites environnementale, démographique et sociale dramatiquement. Cela peut faire et même, fait peur. Les changements sont tellement globaux et rapides, la perte de repères est totale. Les solutions qui existent reposent principalement sur un renforcement des capacités professionnelles et culturelles des individus et de contribution à la vie de leur territoire. Les technologies ne font qu’apporter des solutions techniques, elles induisent et participent à une vraie mutation sociale partagée.

La croissance verte n’est pas que le fait d’inventer de nouvelles techniques et services qui permettent de lutter contre les changements climatiques (bâtiment intelligent, mobilité durable, consommation responsable…). Il s’agit aussi d’inventer des modèles économiques plus équitables, qui respectent les individus et leur environnement… Attention aux répétitions, n’oublions pas les échecs récents.

C’est une question de projet de société, de politique. La question n’est pas comment reconstituer une économie de la rareté, mais comment inventer une vie créative, riche, enthousiasmante, autour d’une monnaie abondante. Et pour cela, nous avons besoin de construire des relations de confiance avec nous-mêmes et avec les autres.

Je ne peux évidemment m’empêcher de penser à la loi Création et Internet… Cette loi est contraire à toute démarche de développement durable. Elle va à l’encontre de toute démarche communautaire, de toute démarche de mutualisation et de partage, à l’encontre du développement durable. Même sur le plan environnemental, elle est très contestable. Savez-vous que dans les pays où un filtre à été mis en place, le réseau a été ralenti. Le premier bilan est très simple : moins de bande passante, plus de consommation énergétique. Beau progrès !

Donc, il y urgence. Formons, formons, FORMONS !

Les prochaines années seront celles de choix importants. Travaillons ensemble à plus de libertés, plus d’autonomie, plus de collaborations.

Quittons cette logique de compétition au profit de la mutualisation. Maintenant, si c’est cela le smart green, internet et développement durable. Il faut que cela devienne encore plus “tendance”.

dimanche 26 avril 2009

Le vert, c’est bon pour les affaires

Source Deloitte - Vu le 25 Avril 2009

Agissez sur l’environnement et vos résultats financiers. Au Canada : au-delà des chiffres.

Dans une conjoncture économique difficile, les organisations doivent reconnaître que les TI vertes et la réduction des coûts vont de pair. L’implantation de technologies de l’information vertes ou « TI vertes » peut leur permettre de respecter leurs engagements envers la responsabilité d’entreprise. Elle peut aussi leur faire réaliser des économies qui auront un effet positif sur le résultat net.

Dans l’article Le vert, c’est bon pour les affaires, les associés DELOITTE - Sébastien Blais et Valérie Chort décrivent les stratégies de TI vertes que les organisations peuvent implanter afin de réaliser des économies récurrentes. La consolidation des serveurs et la virtualisation sont deux moyens rapides de réduire les coûts, mais il reste d’autres gains d’efficience plus durables à trouver. M. Blais résume aussi les principales constatations du rapport corédigé par Deloitte et CFO Research Services, The next wave of green IT (en anglais seulement). Ce rapport fait état des résultats d’un sondage réalisé pour prendre le pouls d’organisations canadiennes à l’égard de la responsabilité d’entreprise. On cherchait à mesurer l’importance que les dirigeants canadiens accordent aux TI vertes et à l’efficacité énergétique.

Pour en savoir plus, lisez Le vert, c’est bon pour les affaires.

Actifs immatériels, leviers pour la croissance : 35 propositions pour une valeur durable

Source CIGREF - Vu le 25 Avril 2009

La Commission Innovation et Immatériel du GPS (Groupement des professions de Services) vient de publier "Actifs immatériels, leviers pour la croissance : 35 propositions pour une valeur durable".

Ces 35 propositions ont été formulées dans cinq ateliers :

   * Parties prenantes
   * Capital humain
   * Organisation et Systèmes d'information (piloté par l'AFOPE et le CIGREF)
   * Enjeux juridiques, fiscaux et comptables
   * Notoriété, images, réputation, marques.

L'atelier "Organisation et Systèmes d'information" co-animé par Georges Epinette (Administrateur du CIGREF, DSI Groupement des Mousquetaires, et Pascal Le Goff, Président de l'AFOPE) avait déjà publié ses 8 propositions.

Téléchargez le document "Actifs immatériels, leviers pour la croissance : 35 propositions pour une valeur durable"

mercredi 8 avril 2009

Agréement des logiciels ITIL

C'est pas pour demain.. donc il faut toujours se méfier des propos "un peu commerciaux" relatifs aux logiciels ITIL... Cela n'a toujours aucun sens et l'agréement ITIL d'un logiciel est toujours un "mensonge" tant que le projet (the scheme) est encore en développement. Une fois ce projet stabilisé, l'agréement d'un logiciel ne se fera probablement pas immédiatement, donc se méfier des propos enthousiastes de vos vendeurs :

"The scheme is currently in development and is not due to be released until April 2009. If you require further information at this stage please contact servicedesk@apmgroupltd.com.

OGC will release an official press release closer to the time whereby further information on the scheme will be available. "

Voir et suivre les détails ici :

Lire la suite

jeudi 2 avril 2009

Réseaux sans fil : la sécurité toujours négligée en entreprise : Selon une étude, moins de 50% des entreprises européennes cryptent leurs données LAN sans fil

Source Silicon.fr - 01-04-2009 - Par Olivier Chicheportiche

Malgré les efforts de 'communication' des éditeurs de sécurité ou des équipementiers télécoms, les grandes entreprises semblent toujours négliger la sécurité de leurs réseaux sans fil.

Depuis plusieurs années, les études soulignent cette carence, la dernière en date, réalisée en Europe par Vanson Bourne auprès de 400 responsables informatiques d’entreprises de plus de 1.000 employés en France, au Royaume-Uni, aux Pays-Bas, en Allemagne, en Italie, en Espagne et dans les pays scandinaves pour Motorola n'apporte pas de surprises.

Selon le document, seulement 47% des entreprises interrogées utilisent le cryptage WEP ou WPA seuls capables de protéger les réseaux sans-fil des menaces bien connues. Par ailleurs, moins de 30% des sondés utilise un système de prévention des intrusions.

Pire, la moitié des entreprises utilise les mêmes mesures de sécurité pour leurs deux réseaux avec ou sans fil. "C’est faire preuve de naïveté que d’utiliser les mêmes mesures de sécurité pour les réseaux LAN câblés et sans fil" déclare Amit Sinha, fellow et responsable technologique de Motorola Enterprise Wireless LAN. "Il est surprenant que les entreprises aujourd’hui n’utilisent pas des standards d’encryptage sans fil tels que WPA2. Le coût d’une brèche de données est de 200 à 300 dollars par fiche compromise ; leur coût cumulé est donc incomparablement plus élevé que celui des technologies de sécurité qui préviennent l’exposition. Prévenir vaut toujours mieux que guérir".

Si 79% des organisations promeuvent de bonnes pratiques en matière de sécurité par le biais de règles de conduites informatiques pour toute l’organisation, 51% des entreprises ne disposent d’aucun moyen pour mettre ces règles en pratique sur l’ensemble de leurs réseaux. Risqué !

L'étude pointe également le problème des hotspots publics. Ainsi, 56% des organisations pensent que leurs employés négligent les mesures de sécurité en envoyant des données de l’entreprise sur des réseaux sans fils totalement insécurisés, comme les bornes Wi-Fi dans les cafés, au lieu d’utiliser certaines formes de VPN. Là encore, un effort pédagogique s'impose.

"L’éducation demeure essentielle pour améliorer la sécurité poursuit Sinha. Le sans fil rend le réseau de l’entreprise plus vulnérable, et les architectures traditionnelles de sécurité ne suffisent plus pour y pallier. Une approche multicouche pour sécuriser l’espace hertzien, comprenant une véritable authentification et un cryptage basé sur les standards de l’industrie comme WPA2-Enterprise, avec une assistance 24/24 et la prévention d’intrusion, s’avère nécessaire".

jeudi 26 mars 2009

Google introduit de la sémantique dans ses résultats de recherche

Le WEB sémantique approche : excellente nouvelle... Les vendeurs de vent de tout poil ne vont pas tarder à nous parler de WEB 3.0. ;-)))

Lire la suite

lundi 23 mars 2009

Nortel : le bateau coule, les primes ne sont pas perdues pour tout le monde...

Source Silicon.fr - 23-03-2009

L'équipementier en faillite a été autorisé à verser plus de 7 millions de dollars de bonus à ses haut dirigeants

Le versement de primes par des entreprises pourtant en grandes difficultés suscite la polémique. Mais le scandale provoqué s'arrête souvent aux portes des entreprises. Si en France, certaines d'entre elles ont fini par céder sous la pression (épisode de la Société Générale), outre-Atlantique, ce type de décision est validé par la justice.

Ainsi, des tribunaux américains et canadiens viennent d'autoriser Nortel, pourtant sous la protection du Chapitre 11, c'est-à-dire quasiment en faillite, à verser à ses haut dirigeants pour 7,3 millions de dollars de primes.

Explication officielle : retenir les managers pendant la restructuration engagée par le premier équipementier télécoms nord-américain.

Même au pays de l'ultra-libéralisme, cette décision provoque le scandale. Notamment chez les employés licenciés qui avaient saisi la justice afin de s'opposer à ces primes. Ils réclamaient le versement des indemnités de licenciement qui leur avaient été refusées en raison du placement de Nortel sous la protection des tribunaux, début janvier.

Visiblement, les simples salariés de Nortel n'ont pas de rôle à jouer dans l'éventuel redressement du groupe...

Guide pour un contrôle interne du SI

Source CIO-Online - Edition du 20/03/2009 - par Bertrand Lemaire

Le Cigref et l'Ifaci viennent de publier le résultat de leurs travaux sous l'égide de l'AMF.

Sous l'égide de l'AMF (Autorité des Marchés Financiers), le Cigref (Club Informatique des Grandes Entreprises de France) et l'Ifaci (Institut de l'Audit Interne) viennent de publier le « guide opérationnel d'application du cadre de référence AMF au contrôle interne » sous le titre « Le contrôle interne du système d'information des organisations ». Ce guide est issu des travaux communs de l'Ifaci et du Cigref amorcés fin 2007.

L'objectif du document est de fournir des méthodes opérationnelles pour s'assurer de la fiabilité du SI via des procédures de contrôle interne et la maîtrise des SI.

Il est destiné autant aux DSI qu'aux DG, DAF, directeurs de l'audit interne, etc.

Il complète le « cadre de référence » de l'AMF du point de vue des SI et le rattache aux référentiels existants (Cobit, Itil...).

Après une introduction rappelant les enjeux, la chaine de valeur des SI et les risques associés, il définit différentes méthodes de contrôle interne appliquées aux différentes fonctions de l'entreprise.

L'ouvrage est essentiellement constitué de schémas procéduraux et de check-lists.

En savoir plus

- Achat de l'ouvrage sur le site de l'Ifaci

- Site de l'Ifaci

- Site du Cigref

dimanche 22 mars 2009

L'innovation en danger !

Source La Tribune.fr - 07/01/2009 à 23:49 - 625 mots

Par Bruno Menard, président du Cigref (Club informatique des grandes entreprises françaises).

La planète n'épargne pas l'un des premiers secteurs économiques mondiaux: les technologies de l'information. Nous aurions pu nous croire relativement protégés par le dynamisme historique des marchés technologiques. Hélas, il n'en est rien.

Cette crise bouscule à la fois la demande et l'offre. Les grandes entreprises vont réduire le nombre, le coût et l'envergure de leurs projets systèmes d'information pour conserver ce qui est vraiment prioritaire. Pour leur part, les fournisseurs, déjà secoués par un mouvement de concentration qui va s'accélérer et renforcer l'influence de certains acteurs, n'ont d'autre choix que de s'adapter à cette nouvelle donne qui fragilise leurs ventes et met à mal leur trésorerie.

Si nous n'agissons pas, cette crise exacerbera deux risques majeurs. La première menace concerne l'innovation. La crise crée des ruptures, à la fois pour nos entreprises et pour les éditeurs de logiciels. Dans nos entreprises, les technologies de l'information constituent un levier incontournable de création de valeur, de performance économique et d'innovation. A l'ère de l'individu et des marchés numériques, les enjeux sont de fidéliser les clients et d'élargir les parts de marché : les directeurs de systèmes d'information (DSI) sont mis à contribution pour atteindre ces objectifs. Mais développer l'usage des systèmes d'information comme facteur de création de valeur ne se conçoit que comme un mouvement continu.

Aussi, la crise d'aujourd'hui doit plus que jamais... nous pousser à imaginer l'innovation de demain. Il serait tentant, pour nos entreprises, de sacrifier ces efforts sur l'autel de la crise, pour s'apercevoir ensuite, mais trop tard, que, faute d'innovation, leur compétitivité est menacée. Ainsi, la prudence qui les conduit à réduire le nombre de projets, geler les recrutements ou privilégier les retours sur investissements les plus immédiats, si elle est pertinente à court terme, ne l'est pas à moyen et long terme.

Le risque concernant l'innovation touche aussi les éditeurs de logiciels. La concentration des acteurs se traduit souvent par un ralentissement du rythme d'innovation, nous l'avons observé par le passé. Les pressions sur les éditeurs de logiciels vont les pousser à sacrifier le long terme pour privilégier des résultats immédiats. Comment vont-elles se manifester&#8? Nous le constatons déjà : par une augmentation des coûts de maintenance, sans bénéfices tangibles pour les entreprises, par une complexité des politiques de licences, par des plans de développement des produits de plus en plus illisibles... Les éditeurs de logiciels ont de bonnes raisons d'être nerveux face aux échéances financières. Mais ils jouent un jeu dangereux.

Car, et c'est la seconde menace que cette crise exacerbe, les relations entre les fournisseurs et leurs clients vont se détériorer. La multiplication anarchique, au cours de ces derniers mois, des audits de droits d'usage, ainsi qu'une agressivité commerciale malsaine n'en sont que les effets les plus visibles. Cette stratégie est contre-productive pour les éditeurs de logiciels. Les entreprises clientes ne vont-elles pas privilégier des solutions alternatives à partir des logiciels libres ("open source") ? Durcir les phases de négociation des contrat Remettre en cause les projets, du moins ceux qu'elles auront réussi à préserver, faute de flexibilité dans les règles tarifaires, de lisibilité des conditions contractuelles ?

De fait, les éditeurs de logiciels jouent un jeu dangereux! Car transformer le climat de méfiance qui menace de s'installer durablement en un climat de confiance, un équilibre raisonnable entre les éditeurs de logiciels et leurs clients, est possible. Nous en sommes convaincus.

Pour cela, trois conditions doivent être réunies: d'abord, que les fournisseurs tiennent leurs promesses et ne se fourvoient pas dans la voie dangereuse des modifications contractuelles unilatérales. Ensuite, que leurs politiques commerciales s'adaptent à nos nouveaux défis économiques et technologiques. Enfin, que les fournisseurs proposent de nouveaux services pérennes et suscitent de nouveaux usages. Il en va de notre crédibilité partagée, condition incontournable pour que le développement compétitif des systèmes d'information se poursuivent dans les grandes entreprises françaises.

Bruno Menard, président du Cigref (Club informatique des grandes entreprises françaises)

vendredi 20 février 2009

L’UE dissout le groupe d’experts sur les données privées

Publié le vendredi 20 février 2009 par L'informaticien

Le groupe d’experts choisi pour remettre ses conclusions sur la protection des données informatiques a été dissous, pour des faits « inacceptables ».

La Commission Européenne avait monté un comité de cinq personnes chargées de réfléchir et de rendre un rapport sur la protection des données privées. Le groupe devait précisément « engager la réflexion sur la révision de la directive européenne de 1995 relative à la protection des données personnelles ».

Récemment, plusieurs sénateurs français ont alerté le président de la Cnil, Alex Türk, sur les dangers que pouvaient représenter les membres choisis. En effet, quatre d’entre eux «représentent des intérêts américains», et c’est Jacques Barrot, commissaire européen en charge notamment de la protection des données, qui a immédiatement décidé de mettre un terme à ce groupe d'experts dès qu'il a été alerté par le Gouvernement.

Une nouvelle instance plus équilibrée

Le tout est rapporté dans une note diffusée sur le site du Sénat. Le groupe d’experts devrait être remplacé «par une instance composée de manière équilibrée et pluraliste». Le futur groupe devrait comprendre des membres du «Groupe des CNIL européennes», le contrôleur européen des données, des représentants de la société civile (universitaires, associations, ONG, usagers...), et le comité des experts du Conseil de l'Europe prévu par la Convention 108 pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel.

En attendant la constitution du nouveau groupe, deux conférences sur la sécurité des données devraient avoir lieu.

lundi 16 février 2009

Zone euro : plus forte chute de la production industrielle depuis 20 ans

La crise actuelle n'est pas un phénomène conjoncturel mais une crise structurelle de l'économie capitaliste.... Le "ralentissement" semble lié à un déséquilibre total entre consommation et production, ce qui au delà des mécanismes spéculatifs toujours en cours, qui expliquerait la spirale du déclin actuelle... C'est du moins ce que l'article de l'USINE NOUVELLE laisserait penser...

Lire la suite

Le modèle de maturité du Cloud Computing

Pour la qualité des logiciels, il existe une démarche à cinq niveaux, baptisée Capability Maturity Model (CMM). Je vous en propose aujourd'hui un pour l'informatique externalisé sur Internet !

Publié par l'ATELIER - le 10 Février 2009 - Par Guillaume Plouin, Directeur programme innovation SQLI

Je me suis souvent exprimé sur la thématique du Cloud Computing dans les pages de L’Atelier, en parlant parfois d’applications en ligne, parfois de SaaS. Pour préciser ces terminologies, je considère que le Cloud Computing désigne l’externalisation informatique vers Internet. Il regroupe les SaaS et les PaaS. Les SaaS sont des progiciels disponibles en ligne (ex : Google Apps, Salesforce), tandis que les PaaS sont des plateforme d’exécution en ligne (ex : Amazon Web Services, Microsoft Azure). Je rappelle que les principaux bénéfices du Cloud Computing sont la réduction des coûts et le déport de l’exploitation informatique vers des spécialistes.

Le niveau 1

C'est le niveau initial, celui où se situent toutes les entreprises. Je considère que la quasi-totalité d’entre elles ont déjà testé un service en ligne "accessoire", dont la portée et le risque sont très limités. Je pense à des services de recherche, de cartographie, de mailing, etc. L’usage de services "accessoires" caractérise donc le niveau 1.

Le niveau 2

Le niveau 2 est le premier où l’entreprise s’implique véritablement dans le Cloud Computing, en recourant à une première application SaaS. L’entreprise commence généralement par une application de commodité, assez générique (comme la messagerie, la gestion des paies, la gestion de la relation client, etc.) et non par une application métier. Elle peut ainsi tester les avantages et inconvénients de ce nouveau modèle logiciel.

Le niveau 3

Au niveau 3, l’entreprise est satisfaite de sa première expérience avec les SaaS. Elle va donc les multiplier. Elle peut alors être confrontée à des problématiques d’intégration entre son système d’information et les SaaS qu’elle utilise. Ces problématiques concernent l’authentification unifiée des utilisateurs, l’échange de données entre applications, et l’intégration des interfaces au sein d’un portail unique. Elles seront résolues par des outils d’intégration ouverts sur Internet.

Le niveau 4

Au niveau 4, l’entreprise se lance dans le développement d’applications métiers sur une plateforme PaaS afin de se débarrasser de leur exploitation et de tirer partie de la puissance de leur architecture (grande souplesse, haute disponibilité, capacité de continuité d’activité). Comme ces plateformes diffèrent de celles qu’on utilise en entreprise (cf. COBOL, JEE, .NET), l’entreprise doit monter en compétence et former ses développeurs à un nouveau paradigme architectural.

Le niveau 5

Au niveau 5, l’entreprise a fait le choix du "SI dans les nuages", c'est-à-dire de l’externalisation complète. Elle a donc démantelé ses infrastructures serveurs, et son équipe d’exploitation s’est transformée en équipe de pilotage d’opérateurs de Cloud Computing. Ce niveau est aujourd’hui très théorique pour les grandes entreprises ; il est cependant envisageable pour des PME.

Niveaux

dimanche 15 février 2009

Le référentiel Itil : un catalogue de bonnes pratiques

Une bonne synthèse ayant surtout l'avantage d'être en langue française....

Lire la suite

Cloud computing : IBM présente sa vision des « réseaux hybrides »

Source ZDNET -publié le 10 février 2009

Technologie - En partenariat avec Juniper, IBM lance une nouvelle plate-forme de gestion d'infrastructures cloud computing, permettant de basculer facilement d'un réseau privé vers un réseau public.

Après le lancement en octobre 2008 de son offre Bluehouse, IBM doit présenter mercredi 11 février, en partenariat avec l'équipementier télécoms Juniper Networks, une nouvelle plate-forme de gestion des infrastructures cloud computing : elle permettra de faire migrer, d'un clic, une application d'un serveur privé vers un serveur public. Le but est de proposer une solution simple pour la gestion de ce qu'IBM appelle les « réseaux hybrides ».

Développé par sa division Tivoli, le logiciel IBM Cloud Management Console s'enrichit d'une fonction pour gérer des « infrastructures cloud publiques », permettant ainsi de faire basculer une application jugée critique depuis une « infrastructure cloud privée » (la gestion de celle-ci étant la fonction première du logiciel), vers un nuage public (hébergé par un prestataire externe).

Un simple glisser-déposer suffit

Dans une démonstration faite hier dans son centre de recherche de San José en Californie, un responsable d'IBM a montré comment ce logiciel permettait de glisser-déposer une boîte (représentant une machine virtuelle et l'application qu'elle hébergeait) d'un « nuage privé » à un « nuage public ». Ensuite, toujours avec ce même logiciel, il a réaffecté les ressources de calcul libérées dans le nuage privé à une autre application, démontrant ainsi la facilité du système pour libérer de la puissance de calcul en fonction des besoins du moment d'un département IT.

Pour le moment, il ne s'agit que de faire migrer des applications entre infrastructures publiques et privées, mais IBM envisage aussi de permettre la migration de données sur le même mode.

Migrer ensuite des données entre infrastructures publiques et privées

Le logiciel IBM Cloud Management Console va constituer une des facettes de la compagne Bluehouse d'IBM, qui englobe produits, services et partenariats autour du cloud computing. Selon l'institut IDC, ce marché des applications et services « cloud » devrait représenter 42 milliards de dollars en 2012.

Parmi les autres innovations qu'IBM présentera demain en matière de cloud computing, figurent :

  • un nouveau service de stockage en ligne sécurisé proposé par Tivoli, facturé sur une base de paiement à l'usage ;
  • la gamme de produits « Service Management Center for Cloud Computing », permettant aux clients d'IBM de concevoir et de fournir des services en mode cloud computing ;
  • « IBM Rational AppScan », un logiciel de vérification des projets cloud computing afin de contrôler s'ils sont bien conformes en terme de sécurité, de réglementations et de politiques observées par le client ;
  • « IBM Design and Implementation for Cloud Test Environnements », permettant aux clients de tester des projets de cloud computing en conditions réelles, à partir de leurs propres infrastructures informatiques.

Le groupe américain doit enfin annoncer la signature de plusieurs nouveaux clients pour ses offres de cloud computing, dont la firme de produits de beauté Elisabeth Arden et l'USGA (United State Golf Association), l'association qui rassemble les clubs de golf aux Etats-Unis.

Toutes ces annonces seront faites à l'occasion de plusieurs événements simultanés organisés par Big Blue, dans la Sillicon Valley en Californie, à Las Vegas, à son siège d'Armok ainsi qu'à Shanghai en Chine.

Par Vincent Birebent, ZDNet France

HPC : Bull a réalisé 5,6 millions d'euros de bénéfice net en 2008

Source : NETECO le Vendredi 13 Fevrier 2009

Bull n'a pas éclaté. Le leader européen du calcul haute performance (HPC) vient de publier ses résultats annuels. Bull a réalisé un chiffre d'affaires (CA) de 1,1328 milliards d'euros (+1,4% sur un an) et en a tiré un bénéfice net de 5,6 millions d'euros (+21,7%). Le groupe emploi désormais 7978 personnes dans le monde.

Principale source de revenus pour la société, les « Services & Solutions » représentent désormais 43,6% du CA (+14,7%), tandis les « Hardware & Systems » en représentent près de 30%. Des résultats qui s'expliqueraient en partie par la montée en puissance du calcul haute performance, un élément de compétitivité important pour la modélisation de systèmes complexes (aéronautique, énergie, climatologie, sciences de la vie, finance, traitement de l'information, développement durable et économies d'énergie). Une bonne santé qui compense le recule des activités de maintenance (-6,8%), qui ne représentent plus que 17,5% du CA, notamment en raison de l'arrêt d'un certain nombre de systèmes propriétaires. La trésorerie nette de Bull s'établit désormais à 302 millions d'euros (fin 2008), comparés aux 192,5 millions d'euros de 2007, notamment en raison de plusieurs cessions de créances.

« (...)nous poursuivons le recentrage systématique de notre portefeuille d'activités », explique Didier Lamouche, le PDG, qui cite en exemple la cession des activités Medicaid aux États-Unis et l'achat de la société science + computing, « l'un des leaders allemands du calcul scientifique. (...) Grâce à ce repositionnement fort, notre portefeuille d'activités se consolide sur nos principaux moteurs de croissance que sont le HPC, le stockage sécurisé et les activités de Services », poursuit

Bull a réalisé plus de 50% de son CA en France, cette année. Genci a, par exemple, passé commande pour un des plus puissants supercalculateurs hybrides d'Europe et la Direction des Applications militaires du CEA a signé pour la réalisation de Tera 100, le premier supercalculateur pétaflopique conçu en Europe, destiné au Programme de simulation nucléaire français. Reste que le supercalcul est encore très énergivore. Bull qui s'est engagé pour une informatique verte, s'est donc allié à l'initiative « Climate Savers Computing », une organisation mondiale à but non lucratif, dont le principal objectif est de réduire de moitié la consommation des systèmes informatiques à l'horizon 2010.

Pour cela, le groupe devra faire un effort sur ses dépenses en recherche et développement. En effet, en 2008, elles n'ont représenté que 2,3% du CA à 23 millions d'euros contre 3,7% en 2007. Une baisse qui s'expliquerait à nouveau par « la réduction de l'effort consacré aux technologies propriétaires dont les ventes baissent ». Bull se consacrerait désormais en priorité aux serveurs HPC, à l'Open Source, au stockage et à la sécurité.

Concernant l'avenir, la firme reste prudente, comme le concède Didier Lamouche: « le contexte extrêmement incertain nous conduit à la prudence dans la formulation de nos objectifs et à une extrême vigilance dans notre gestion. Nous poursuivrons en 2009 les réductions de coûts adéquates et accélérerons notre travail de transformation autour de nos axes stratégiques avec une focalisation toute particulière sur la poursuite de l'amélioration de nos marges "Services" et la génération de cash ».

jeudi 29 janvier 2009

SAP va bien, mais s'apprête à licencier massivement

Source Generation-nt - 20 Janvier 2009

Si les salariés auront du mal à comprendre le fait de se retrouver sur un siège éjectable alors que leur entreprise fait encore des bénéfices, les actionnaires ont en tout cas réagi positivement à cette attitude de prudence. Le titre gagnait ainsi 6,06 % à la Bourse, 27,82 euros.

http://www.generation-nt.com/sap-progiciels-licenciements-plan-social-actualite-223481.html

On dépasse déjà les 85.000 licenciements en quelques semaines

Source Informaticien.be - 29 Janvier 2009

Le milieu ICT (Informatique & Telecom) est en crise, nul besoin d'une nouvelle actualité pour vous le faire savoir mais les chiffres s'accumulent jour après jour et sans prendre un peu de recul on a du mal à s'imaginer ce que cela aura comme répercussions réelles.

En pratique, on estime qu'il y aurait plus de 200.000 emplois directs perdus rien qu'en Europe dans le secteur et jusqu'à 500.000 emplois indirects. Au niveau mondial, voici une petite ventilation dans les groupes les plus connus:

AMD 1100 AT&T 8000 Dell 1900 Ericsson 5000 Google 100 IBM 2800 Intel 6000 Lenovo 2500 Logitech 1000 Micron 3000 Microsoft 5000 News Corp 100 Nortel 1300 OC Oerlikon 1000 Philips 6000 SanDisk 500 Seagate 5400 Sony 16000 Sprint Nextel 8000 STMicroelectonics 4500 Sun 1300 Texas Instrument 3400 Western Digital 2500 Yahoo France 52

Cela nous amène déjà à un total assez ahurissant de 86.452 licenciements annoncés en moins d'un mois, la crise qui ne devrait pas s'arrêter à la fin de la semaine risque donc d'être très dommageable pour tout le secteur. Soupirs!

mardi 27 janvier 2009

Windows Seven (7) toujours disponible chez Microsoft

Source TNIS - le 27 Janvier 2009

Microsoft a décidé de prolonger la période de téléchargement de son nouvel OS jusqu'au 10 février.

Il sera par contre toujours possible de se procurer des clés d'activation après le 10 février.

Même si certains sont tentés par l'installation de Windows Seven, il ne faut surtout pas perdre de vue que cette version bêta de Windows expirera le 1er août 2009 et ne doit pas être le système principal d'un poste de travail, même à titre personnel...


Parse error: syntax error, unexpected $end in /home/tnis/www/dotclear/ecrire/tools/bbclone/var/last.php on line 733