Exploration des continents numériques, blogs et podcasts technologiques, par Olivier Pavie

Exploration des continents numériques, blogs et podcasts technologiques, par Olivier Pavie

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Bonjour,

Ce blog d’un autre temps n’est pour l’instant là que dans un but d’archive vivante.

N’hésitez pas à rechercher dedans de vieilles références qui datent pour certaines de 2006 ; le moment où je m’étais essayé au podcast audio puis vidéo qui m’avaient valu de me retrouver au top des Podcasts Technologiques, notamment sur iTunes !

Un vrai bon moment!

Au plaisir d’échanger avec vous.

Olivier Pavie

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Facebook paradis des agences de publicitéFacebook représente le début de l’aboutissement du rêve des agences de Pub. C’est à la fois une preuve de concept, un contre-pouvoir face à Google, une formidable machine à créativité et tout ça avec des terminaux payés par les utilisateurs ! Pourquoi Facebook aurait-il un jour besoin d’être payant ?

Une machine comme Facebook, c’est comme si le monde entier était tapissé de bornes interactives capables de reconnaître instantanément chaque utilisateur qui passerait devant pour lui ouvrir les portes de la caverne d’Ali Baba. Mieux, la borne interactive est dans la poche, sur le bureau ou dans la chambre de chacun. Evidemment aucune référence aux 40 voleurs mais juste à l’aspect magique de cette vaste boîte qu’est Facebook et peut-être aussi à ce site d’un milliardaire Chinois, Alibaba.com, vitrine de tout ce qui se fabrique là-bas. Une telle boîte vaut une fortune colossale pour qui saura en extirper la substantifique moelle propre à convertir chaque utilisateur en poule aux oeufs d’or.

Mais pourquoi se poser la question de la conversion de l’utilisateur ? Les publicitaires n’ont-ils pas exploité la lucarne magique pendant des dizaines d’années à coups de sondages mediamétrie pour y vanter des millions de produits sans savoir si les publicités rapportaient. Et pourtant elles rapportaient. Et elles rapportent encore! Ce qui est intéressant dans Facebook, c’est que c’est tout simplement la nouvelle TV telle que tout le monde l’attend depuis des années. Cette TV interactive dotée d’un réseau social dans laquelle chaque spectateur choisit son POD (Programme On Demand) 24 h sur 24.

Certes, les contenus ne sont pas encore de la TV mais bon… La TV est de plus en plus présente au travers de contenus à la demande partagés et retwittés. La pub est insérée à la source sur les plateformes de diffusion et la boucle est bouclée. La publicité est bien vendue à un moment, voire survendue, en fonction de son circuit cette fois multi media au sens propre. Et la TV s’y retrouve aussi puisqu’elle a créé ses propres dispositifs de replay qui assurent de nouveaux vecteurs de diffusion de la Pub, et cette fois, sur les contenus qui plaisent le plus aux facebookeurs puisqu’ils la montrent.

Facebook est une machine qui sera achetée par la plus grosse société de communication du monde! Qui sera le plus gros acheteur potentiel ? Celui qui vend le plus de pubs sur la planète ? Google ? Peut-être que la loi antitrust américaine ne le permettra pas. Une Joint Venture Qatar/Chine ? Et pourquoi pas le site Alibaba.com ?

Olivier Pavie

Explorateur Numerique

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Le Cloud est synonyme de résilience. C’est dit. Mais qui comprend réellement ce dont il s’agit ? Derrière le terme se cache une mécanique numérique. Qu’est-ce donc que la résilience du Cloud ?

En physique, la résilience est la capacité d’un matériau à absorber les chocs. C’est une information de résistance des matériaux qui s’exprime en Joules/cm2. Chaque matériau a ses limites. En psychologie, les travaux de Boris Cyrulnik utilisent ce terme pour évoquer la faculté d’adaptation et de rebond d’un individu, de communautés ou d’animaux. Résilience venant du latin resilientia et signifiant rebond.

Que cela signifie-t-il en matière d’informatique et plus précisément de Cloud ? Tout simplement une infrastructure adaptée à des fluctuations importantes de puissance de calcul et de volume de données. Ceci étant complété par un usage ubiquitaire de terminaux variés tels que tablettes, smartphones, PC, etc. ça aussi c’est dit !

Si nous analysons, il y a deux choses bien différentes et complémentaires dans cette approche de définition de la résilience du Cloud: il y a l’infrastructure, et l’usage de l’infrastructure par les terminaux.

L’infrastructure résiliente, c’est principalement et à proprement parler le Cloud, même si l’infrastructure entre guillemets «informatique» peut être totalement hybride en fonction des besoins. Pourquoi parle-t-on de l’infrastructure Cloud comme étant capable de résilience ? Parce que son essence même est de remplacer une infrastructure matérielle par une infrastructure virtuelle, donc numérique, donc totalement plastique, capable de changer son dimensionnement et ses services à volonté sans remettre quoi que ce soit en cause en termes d’achat de matériel lié à l’infrastructure.

En cas de besoin de puissance, il suffit d’appuyer sur un bouton ou de sortir son chéquier pour en disposer en quelques heures tout au plus. En cas de plantage d’une mise à jour logicielle, il suffit de repartir sur la version sauvegardée de l’infrastructure pour réutiliser la même infrastructure de services qu’avant en quelques minutes. Les sauvegardes pouvant être prévues en Cloud ou pas. Nous avons bien là adaptation et rebond de l’infrastructure.

Du côté des terminaux, c’est encore plus simple. Vous perdez votre mobile ou votre PC portable et il vous suffit d’en racheter un et de vous connecter à Internet sur le bon service pour reconstruire toute l’interface et les services de l’appareil disparu. Un login, un mot de passe, un nom de site Web et vous retrouvez votre environnement. Si vous utilisiez plusieurs types d’appareils pour vos services, tout ce que vous aviez fait sur l’un est accessible sur l’autre. Nous avons bien là ubiquité, adaptation et rebond des terminaux au travers de l’infrastructure.

Le Cloud répond parfaitement à la définition de résilience de Boris Cyrulnik que l’on aurait transposée au monde des machines et dépasse celle de la physique qui ne possède pas la tolérance de la résistance d’un type de matériau à une surcharge.

Olivier Pavie

Explorateur numérique

La réponse Cloud


 

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Merci Steve !

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Steve,

Je suis de la génération qui a vu apparaître les premiers micro-ordinateurs : Thomson T07 et MO5, Sinclair, Oric, Amstrad, MSX, et autres PC. J’ai découvert l’Apple II en 1982, aux USA, machine un peu bidouille en avance sur le PC qui faisait ses premiers pas. L’Apple II était le rêve de tous ceux qui possédaient à cette époque un Sinclair ZX 80 ou 81 qui coûtait vingt fois moins cher mais n’avait rien à voir.

Ensuite arriva, en 83 je crois, le Lisa présenté dans les magazines de l’époque (Micro Système par exemple) comme la révolution… et c’était la révolution (en Francs, se rappeler qu’il était commercialisé à l’époque à environ 45000 F soit environ 7000 €). Il fut un bide mais tu as rebondi dès 1984 avec un condensé de Lisa, le MACINTOSH ! Ce fut LA révolution. Un outil qui ne sut être concurrencé que par l’Atari ST vendu 6 ou 7 fois moins cher mais qui n’a pas pu résister à la montée du PC ; n’a pas réussi à se faufiler dans la place qu’Apple s’était bâtie dans le monde de la création.

Le PC ne commença à concurrencer le Macintosh qu’en 1989 environ soit 5 ans après !!! 5 ans dans ce monde, c’est une éternité. Malheureusement pour moi, le Macintosh était toujours trop cher… Il s’imposait néanmoins dans tous les domaines de la création tant qu’il ne s’agissait pas de domaines d’industrialisation…

Le Macintosh a continué son petit bonhomme de chemin, l’iPod est arrivé, non pas révolution mais simplement évolution pensée intelligente et structurée de l’usage de la musique à l’ère numérique avec un écosystème incluant une  » vraie » économie car on le sait tous les jours de plus en plus, on ne vit pas d’amour et d’eau fraîche… surtout les artistes…

Je ne parlerai pas de l’iPhone sur lequel tu as reproduit la formule du Macintosh et de l’iPod avec une Maestria extraordinaire, dopé par un marché qui vendait cher des smartphones souvent pittoyables ; tu n’as même pas eu de mal à t’imposer !!! Bravo !

Enfin, en 2010, tu as réussi là où tu avais échoué en 1993 avec le Newton : l’iPad !!! Et je ne parlerai pas de tous les autres qui ont échoué (si ce n’est de Palm quand même qui avait repris la techno du Newton et qui a eu ses heures de gloire).

L’iPad ! C’est sans doute ce qui va changer la face du monde ! Il est cher, évidemment, comme tous les produits que tu as inventés… Mais tout est relatif… Il vaut 10 fois moins cher qu’un Lisa (et 30 fois moins cher en « valeur constante »)…

De toute façon, peu importe son prix d’aujourd’hui. Personne n’imagine encore le dixième des usages de cet appareil génial, qui met à disposition en tous lieux et en (presque) toute circonstance la culture, l’information et la communication, sans oublier la connaissance, les loisirs et bientôt le confort.

Tu es et resteras à jamais le maître incontesté de la vision d’un monde qui allie innovation, création, intelligence économique, et… révolution tranquille, celle qui diffuse la connaissance et la communication partout et en tous lieux !

Merci pour tout ce rêve devenu réalité grâce à toi. Tu fais partie du patrimoine de l’humanité.

Olivier Pavie

PS : depuis 2008, date à laquelle tu as commencé à réduire tes prix, j’ai pu acquérir un Macbook sur lequel j’écris plus souvent sous Windows que MacOS X, un iPhone 3GS et un iPad 1. Il était temps ! (humour… un peu noir… mais c’est de circonstance… et je crois que Steve Jobs appréciera de là où il est)

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Bonne nouvelle ! Google active au fur et à mesure son nouveau dispositif d’indexation basé sur la qualité du contenu (nom de code « Panda »). L’algorithme est déjà opérationnel aux USA. Il a récemment été activé au Royaume-Uni. Il est programmé pour l’ensemble du globe.

Il était temps d’agir et de commencer à penser à reléguer les robots d’agrégation de contenus afin de privilégier un véritable contenu pensé et « éditorialisé ». Non pas que le nouvel algorithme soit forcément la panacée aux problèmes de qualité : il permet de descendre au dessous de la superficialité et d’entrer dans une première sous-couche d’intelligence ou du moins d’information « réelle » et plus seulement du buzz.

Pourquoi un tel geste de la part de Google ? Pour deux principales raisons : il y a du contenu sur le Web et il ne s’agit pas d’être le premier à le montrer. Surtout quand on voit les actions de Google depuis quelques années afin d’indexer de plus en plus de contenus quitte à offrir son soutien aux gouvernements pour numériser livres et documents.

L’objet de cet article étant plutôt d’applaudir une démarche qualitative, nous ne pleurerons pas ici sur les fermes de contenu dont nous ne ferons pas état.

Le blog Explorateur Numérique va peut-être reprendre une existence qui aura du sens.

Olivier Pavie

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Watteco has developped a major technology that is perfect for the HAN part of the Smartgrid. I’ve tested it for 3 years.

Watteco is a French company founded more than 10 years ago. In 2008, after testing a while its technology, I wrote Watteco’s White Paper about WPC : Watt Pulse Communication, a really true patented technology. As I’ve been using some of their produits for almost 3 years and as I hear some people who should be well informed who are not, I think that it could be useful to tell what experience I have with it.

As I’ve written the White Paper as a consultant and not as an editor for several high tech magazines as I used to be, some people may think I’m not impartial. It’s because I’ve heard some big mistakes from people very much involved at a high level in the Smartgrid « ecosystem », I think I must give my own opinion.

Watteco’s WPC is a « kind » of PLC. It is something which has no common idea with Homeplug or other OFDM technologies over Powerline. It’s a technology that uses the way an electricity physical topology works as a media. Its cleverness is in the fact that it uses the electricity network defects as an opportunity when Homeplug and OFDM technologies try to avoid all defaults ; they’re complementary !

In my HAN, I use Ethernet 1Gb Hub (Netgear), Wifi 802.11n (Livebox II from Orange), 4 Homeplug 85 Mbps (Devolo) Ethernet adapters and WPC in Winter for my heaters (and for a low energy consumption light I use as an indicator light) . Nothing changes in the way my HAN works for IT and Multimedia when I plug the WPC Mestari USB controler box in the Mains plug.

WPC’s deployment is easy, efficiency and only needs 10 mW to Command & Control a mains appliance ; it can be used to command and control heaters as well as LED lightning. Watteco has already developped 802.15.4 PLC MAC layer stack in its WPC-15.4 product.

Olivier Pavie

Info +

www.watteco.com

Mestari was the USB mains plug controller that worked within the Pulssi solution Watteco had developped a few years ago.

WPC technology works as a 10 kbits/s bi-directional modem

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Avec la smart grid, le consommateur devient actif pour conserver l’énergie électrique

La majorité des pays, quel que soit le stade de leur développement, doivent aujourd’hui faire face à des challenges fondamentaux dans l’accompagnement de leur développement économique, social et industriel alors que le monde entier connait une crise économique sévère.

Il s’agit pour chacun de trouver des moyens de créer des emplois, de mieux gérer ses ressources naturelles et de dégager de nouvelles ressources pour des investissements de croissance. Dans un contexte de réchauffement climatique, d’augmentation de la pollution et de raréfaction des ressources énergétiques classiques, les pays doivent mieux connaitre les composantes de leurs dépenses énergétiques de façon à mieux les maîtriser et faciliter le développement de nouvelles énergies plus propres.

    S’attacher à optimiser les ressources en commençant par en améliorer le rendement est le début du cercle vertueux :

  • La gestion des moyens servant à produire, distribuer et optimiser l’électricité est une brique essentielle.
  • Le Smart Grid (ou La Smart Grid) est une des appellations qui définit un réseau de distribution d’électricité intelligent

La démarche adoptée dans le principe de Smart Grid est centrée sur le consommateur. Elle consiste à faire activement participer le grand public, les consommateurs et les industriels, à la réduction de la consommation d’énergie en leur donnant les informations nécessaires pour connaitre leur propre consommation et les moyens de la contrôler. Une circulation dans les deux sens de flux d’information entre les consommateurs et les fournisseurs aux différents niveaux de la production, du stockage et de la distribution d’électricité contribuera à améliorer l’efficacité et conduira à générer une électricité plus propre.

Selon les estimations de l’ACEEE (American Council for Energy Efficiency Economy), une réduction cumulée de 15% de la consommation électrique en 2020 aux Etats-Unis (soit de 0.33% à 2.5% par an pendant les 10 prochaines années) permettrait aux américains d’économiser environ $170 milliards, de créer 220000 emplois et de réduire les émissions de gaz polluants équivalentes à celles de 35 millions de voitures. ACEEE estime qu’entre aujourd’hui et 2030, les factures d’électricité peuvent être réduite de $1.3 trillons à condition que les bons dispositifs à base de microprocesseurs soient mis en place pour améliorer la capacité des logicielles et des technologies que l’on utilise quotidiennement. Cela économiserait la construction de près de 300 usines électriques sur le sol américain. En Europe, l’initiative 20.20.20 s’est fixé comme objectif de baisser la consommation électrique de 20% d’ici 2020 tout en augmentant de 20% la part des énergies renouvelables

Un Smart Grid pour réduire la consommation d’électricité

Des le début des années 2000, la plupart des grands blocs géopolitiques ont commencé de réfléchir sur l’évolution de leurs réseaux électriques de façon à mettre en place une architecture de réseau de réseaux appelé « Smart Grid », c’est-à-dire une infrastructure de réseaux électriques de nouvelle génération sur laquelle circuleront des informations sur la consommation électrique de tous les appareils connectés, dans la maison ou à l’extérieur, dans les villes, les bureaux, les usines. Pour capter et traiter ces informations, il est nécessaire de faire évoluer les réseaux électriques vieux de depuis plus d’un siècle vers une nouvelle forme de réseau intelligent capable de recevoir et traiter l’information et d’agir en conséquence. L’Europe et les Etats-Unis principalement ont adopté la démarche de définir une architecture à plusieurs niveaux de réseaux (domaines) interopérables, chaque niveau remplissant un rôle spécifique tout en restant flexible, économique, accessibles, fiable et sécurisé. Le concept de Smart Grid s’appuie donc sur les réseaux électriques existants au dessus desquels est ajoutée une couche de communication unifiée et de systèmes de contrôles qui fournissent la bonne information au bon niveau, à la bonne entité et au bon moment pour permettre de prendre la meilleure décision.

Ces différents niveaux de réseaux (domaines) seront organisés de façon à mieux contrôler la génération, le stockage et la distribution d’électricité selon les besoins et de proposer une offre de meilleure qualité de façon à éviter les gigantesques pannes qui ont pu se produire aux Etats-Unis ou en Russie, ou encore, les distorsions manifestes parfois constatées au sein même d’un pays (prix variant de 1 à 5). Un tel système est basé sur la mise en oeuvre d’un ensemble de standards, il permet d’intégrer sans arrêt les dernières innovations technologiques à chaque niveau et de développer un écosystème de produits industriels et de services qui fonctionneront sur ces nouveaux réseaux. Comme toute infrastructure nouvelle, sa mise en place appuyée sur l’infrastructure existante se fera dans le temps.

Migrer le réseau électrique actuel vers le Smart Grid

Les grandes étapes de la migration vers le Smart Grid (qui a débuté il y a déjà plusieurs années aux Etats-Unis et en Europe) auront pour objectif :

  • de faire passer le réseau actuel d’un système radial assez centralisé vers un véritable réseau assurant la connectivité entre les sources d’électricité et le consommateur final ;
  • de transformer un réseau appuyé sur des systèmes de commande et de contrôle électro-mécaniques vers des systèmes entièrement numériques capable d’être programmés et automatisés ;
  • de faciliter les communications dans les deux sens qui permettent au consommateur de passer d’une attitude passive à une participation active sur le marché.
  • de mettre en place des systèmes de gestion de l’information à tous les niveaux du réseau

Ainsi, dans un premier temps, un certain nombre de mises à jour physiques devront avoir lieu sur le réseau. Le foyer, devenu le point de départ et d’arrivée du Smart Grid, doit être équipé pour générer et recevoir les informations détaillées de consommation électrique de façon à ce que le consommateur puisse adopter une attitude active de gestion de sa consommation électrique. Cela signifie qu’il faut en premier lieu rendre les compteurs électriques intelligents, c’est-à-dire qu’ils puissent recevoir et envoyer des informations sur le réseau électrique. Ensuite, pour obtenir des informations plus précises, il faudra permettre à tous les appareils électriques d’envoyer des informations au compteur dont ils dépendent pour s’alimenter. Les moyens pour faire circuler les informations entre le compteur et les appareils de la maison d’une part et entre le compteur et le Smart Grid  peuvent être multiple et s’appuyer sur le réseau électrique, les réseaux sans fil ou encore le réseau Internet à haut débit.

Le compteur électrique intelligent au centre du système de Smart Grid

Les compteurs électriques intelligents (Smart Meters) sont donc aujourd’hui au coeur de la problématique du Smart Grid comme l’une des conditions de base de sa mise en oeuvre dans n’importe quel pays. Un Smart Grid sans compteurs intelligents ne sera d’aucune utilité. La société d’analyse Pike Research estime qu’en 2009, les compteurs intelligents ne représentaient que seulement 4% de tous les compteurs électriques installés dans le monde, dont 6% sur le territoire des Etats-Unis et environ 12% en Europe.  Pike Research compte 1.3 milliards de compteurs électriques installés dans le monde. Elle estime que la croissance globale du nombre de compteurs intelligents atteindra 18% par an d’ici 2015, représentant une opportunité industrielle importante et une opportunité pour l’émergence de nouveaux services innovants. Pour elle, le seul marché mondial des compteurs électriques intelligents, sans compter les autres éléments d’infrastructure intervenant dans les Smart Grid aura plus que quadruplé pour approcher les 15 milliards de dollars de chiffre d’affaire par an.

Aux Etats-Unis, le « Recovery Investment Act » voté par le Congrès Américain  comporte une aide de $11 milliards pour « stimuler la migration vers un meilleur réseau électrique, plus grand et plus intelligent». Cet investissement de modernisation du réseau électrique Américain conduira à près de 5000 km de nouvelles lignes électriques et plus de 40 millions de nouveaux compteurs intelligents dans les foyers US d’ici 2015. En 2006, PG&E en Californie a mis en place un plan de 5 ans pour remplacer 9 millions de compteurs électriques par des compteurs intelligents. De plus, d’ici 2015, l’objectif du plan de relance américain est de mettre sur la route plus de 1 million de véhicules hybrides capable de recharger leurs batteries en se connectant directement au réseau électrique. En Europe, suite à l’initiative 20.20.20 le troisième prévoit que 80% des foyers Européens disposent d’un compteur électrique intelligent d’ici 2020 et 100% en 2022. Dejà, 27 millions de compteurs intelligents ont été déployés en Italie par Enel. En France, EDF a commencé en mars 2010 un pilote portant sure 300000 compteurs intelligents en Indre et Loire et à Lyon. EDF prévoit de remplacer 35 millions de compteurs électriques par des compteurs intelligents entre 2012 et 2017.

Challenges pour le compteur intelligent

Le cycle de renouvellement d’un compteur électrique est en moyenne de 40 à 50 ans et il coûte relativement cher dans la mesure où il nécessite le déplacement d’un technicien sur place. Aujourd’hui, l’industrie se trouve donc devant le challenge de la conception et de la mise en oeuvre des nouveaux compteurs intelligents, alors que la mise en oeuvre de Smart Grid dans le monde vient à peine de commencer et que l’ensemble des standards nécessaires ne sont pas encore complètement établis. Les compteurs intelligents doivent ainsi être en mesure d’aborder d’une manière flexible et à moindre coût tous des problèmes d’interopérabilité pour assurer une bonne transmission, une bonne utilisation et une parfaite sécurité des informations qui circuleront sur ces réseaux, quelque soient les parties prenantes, alors que les standards continueront d’évoluer..

Les compteurs intelligents serviront de lien indispensable entre tous les appareils qui équipent le foyer et le Smart Grid, communiquant avec chacun des appareils. En même temps récepteurs et agrégateurs de l’ensemble des données de consommations électriques dans la maison et passerelle intelligente et de communication entre le foyer et le Smart Grid, les compteurs intelligents devront être programmables pour s’adapter aux évolutions des nombreuses technologies et aux innovations futures qui interviendront sur le Smart Grid et dans les appareils domestiques. En effet le compteur intelligent enverra vers le Smart Grid les informations sur la consommation électrique du foyer et recevra du Smart Grid un ensemble de signaux qui permettront à l’utilisateur de mieux connaitre sa consommation et d’agir en fonction des tarifs ou des incitations proposés. Le compteur intelligent est donc au point d’intersection de plusieurs réseaux dont certains ne font pas partie du Smart Grid mais pourront communiquer et échanger des informations avec lui.

L’objet est donc de mettre en place un appareil qui puisse pleinement jouer le rôle qu’on attend de lui dans un environnement qui pendant un siècle a été défini par la seule mesure de la quantité d’électricité distribuée aux usagers. Il doit maintenant s’ouvrir à la communication numérique et à l’échange d’informations sur l’ensemble des éléments avec lesquels il sera en contact. Il assurera la liaison entre trois types de réseaux : le réseau électrique classique (NAN), le réseau Internet à haut débit (WAN) et les réseaux domestiques (HAN).

Ces réseaux s’appuient sur des supports différents de transport de l’information : les réseaux électriques, les réseaux de télécommunications fixes (Internet) et les réseaux sans fil (ZigBee, WiFi, GSM, etc.). Le compteur intelligent doit donc être flexible et ouvert pour être en mesure d’envoyer et recevoir des données transportées sur ces trois types de réseaux.

Il devra être construit autour d’une base programmable étendue non figée, faisant appel à un microprocesseur, permettant la mise en place de services liés à une meilleure connaissance et une meilleure maitrise de la consommation d’énergie au sein du foyer ou des entreprises.

Alain Baritault et Olivier Pavie

Situation aujourd’hui

  Situation demain
Electro-mécanique/semi-conducteurs Programmable/ microprocesseur
Communications dans un seul sens/ bilatérales localement Communications bilatérales généralisées sur tous les réseaux
Génération électrique centralisée Génération électrique distribuée
Protection locale/limitée/ Système de veille et de contrôle WAMPAC  Protection dynamique et adaptative (Wide Area Monitoring Protection and Control)
Système «Aveugle» Système en veille permanente
Remise en route manuelle Remise en route automatique par le système
Vérification manuelle des équipements Veille et contrôle des équipements à distance
Risques d’un système de contrôle limité Système de contrôle auto adaptatif
Fiabilité du réseau estimée Fiabilité du réseau prévue
Mise en oeuvre des équipements en fonction des pointes saisonnières (approche conservatrice)  Mise en oeuvre dynamique des équipements  sur les indicateurs en temps réel (approche dynamique)
Peu de choix offerts aux clients

Le client dispose d’une vaste palette de choix de services

Ce tableau (Source Pike Research) montre les différences entre le système de distribution électrique actuel et le système de Smart Grid utilisant les compteurs intelligents.

Info+

Quelques liens sur les sujets Smart Grid et Green Business en Europe :

http://www.greenunivers.com/

http://www.businessgreen.com

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati


 

Dear Steve Jobs,

I’m surprised that I couldn’t buy an Ipad with cash in an Apple Store. The only product that cannot be bought with cash, gift card, or anything else than a credit card is the Ipad. Why ? Apple is so rich that it doesn’t want money ? In the USA ? Even after a reservation with an Apple ID that is secured with a credit card number associated to it?

I’m sorry of course that my credit card was declined by the magnetic reader of an Iphone like machine, but I thought that before selecting credit card only payment, all credit card would be accepted… In fact, the Iphone like reader doesn’t read credit cards equiped with secured chips from Europe (that have been existing now for more than 15 years)…

So, instead of my declined credit card at the Apple Store that rejected it, I went to the local Bank of America cash machine where I could withdraw 700 $ with the incriminated credit card. Then, when I came back with my cash, people at the Apple Store told me they wouldn’t take my cash because it was the policy for the Ipad.

As a french guy, I was not sure I could believe what my ears had heard. I went back to the local Bank of America agency and told my story to the cashiers. They didn’t believe me ; They said : « no ! It’s not possible ! »Â . « Never heard of things like this in my life ! » said another one… « They often come to do change here » added another one. I gave them the phone number of the Apple Store: they answered to the cashier the same thing they told me in the shop.

So what ? Well … As a journalist I used to be, I’d like to understand Mr Steve Jobs… I know you’re a genius… But I don’t find any genius in this stupid story. Nobody told you? Poor marketing team… I’m sorry…. The Apple store that has done that ? I’ll tell you personally. I’m staying in Menlo Park right now, a few miles away from Cupertino.

Best regards

Olivier Pavie

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

SI vous êtes l’heureux utilisateur d’un iPhone, le simple fait d’accéder à l’adresse d’Explorateur Numerique vous donnera une visualisation adaptée ainsi qu’un look iPhone que vous ne pourrez qu’apprécier.

Au fait, cela fonctionne aussi sur Androïd !

Bonne navigation !

Olivier Pavie

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Ne cherchez pas dans le titre une ode au capitalisme ou à ses opposants. Point de débat idéologique global mais du concret local. Oui, Regioneo.com augmente son capital pour développer le portail de ses services. A savoir: la vente en ligne de produits du terroir ! Quel paradoxe ! Capitalisme et terroir !
Là où l’idée trouve une grande part (sans jeu de mot) éditoriale pour être traitée sur ce site, c’est lorsque tout ceci est drainé par Internet, les réseaux sociaux,… bref, par le numérique… Pour accéder directement au site de Regioneo, utilisez le macaron placé sur la colonne de droite.

Et sinon, dans la même veine de ceux qui illustrent les efforts en matière de promotion du terroir, un petit passage sur http://www.fromages.com s’impose ; le capitaliste qui est derrière se reconnaîtra 🙂

Olivier Pavie

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

A Imagina 2010 en ce mois de février, impossible de passer au travers de la 3D. D’Avatar à Skype en passant par les jeux vidéo, les écrans, les applications industrielles et les services aux collectivités, chaque parcelle du Forum Grimaldi livre des constructions numériques volumiques. Et c’est du concret !

Après une conférence sur les making Off du film Avatar de James Cameron par Nolan Mutha, responsable des effets spéciaux du film, le tableau était brossé. Parfaitement complété du reste par la présentation du Making Off du jeu du même nom par le responsable d’animation d’Ubisoft, Xavier Rang. Ce qui ressort, c’est un bilan d’une 3D mature ; la convergence de la 3D Artistique et de la 3D « Outil » est totalement atteinte.

Imaginez que le film a été tourné par une caméra réelle à visée virtuelle vers un univers 3D virtuel calculé en temps réel !C’est immense ! Certes, pas forcément à la portée de tout le monde tant sur le plan technique que financier et artistique… Les techniciens comprendront que l’univers virtuel n’avait évidemment pas la qualité finale du film, mais celle d’un bon jeu vidéo quand même…

Sorti d’une telle démonstration, comment la 3D arrive-t-elle alors à attirer l’oeil dans les allées du salon ? Comment d’autres conférences arrivent-elles à susciter un intérêt ? Le spectre de réponses est extrêmement large et Imagina le montre à chaque détour d’un couloir.

Citons par exemple la signature de la charte 3D à laquelle ont adhéré, entre-autres, ce jour, la Principauté de Monaco en la présence du Prince Albert II, le Gouvernement Français et l’IGN. Il s’agit notamment d’un acte fondateur de construction de règles éthiques sur l’authenticité et l’exactitude des données 3D. Données qui seront notamment utilisées dans les bases de données urbaines propres à faciliter et homogénéiser le travail des collectivités.

Ce n’est pas tout, Nvidia a présenté différentes solutions d’affichage 3D à base de GPU (processeur de calcul spécialisé dans l’affichage) du même nom. C’est ainsi qu’il est possible, pour des sommes raisonnables au regard de ce qui se fait actuellement, de traiter quatre sources de diffusion de TV en HD dont certaines peuvent être des « rendus » temps réel d’univers virtuels de la qualité d’un jeu vidéo. C’est la société suisse Marquise Technologies qui s’est chargée de la démonstration de sa solution en avant première du salon NAB.

Quid du matériel ? Solution de Scanner 3D manuel portable chez Noomeo, nouvelles imprimantes 3D à résine multiple chez Bibus. Côté logiciels, on retrouve des nouveautés chez tous les éditeurs présents. A noter toutefois l’apparition de logiciels de montage TV 3D chez 3DTV qui nous permettent de découvrir la « grammaire de la conception » de scènes 3D.

Excellente conférence aussi à noter de Philippe Gérard, de 3Dlyser, filiale de Doremi sur l’art et la manière de traiter la 2D afin qu’elle devienne 3D. On y apprend que « Le Corniaud » va passer en 3D et qu' »Océan » de Jacques Perrin a été réalisé en 2D avec un scénario imaginé pour des prises de vues offrant un passage parfait de 2D en 3D. Ce qui est encore plus intéressant, c’est de comprendre que la 3D demande un apprentissage tout particulier. La mise en perspective dynamique est complexe en raison de nombreux paramètres techniques, mais pas seulement. Avec la 3D, le psychisme du spectateur est sollicité de manière qui pourrait être « dangereuse » si l’interprétation de la 3D est mal réalisée.

Il y aurait beaucoup plus de choses à dire sur cette édition très réussie de l’évènement.  L’immanquable cérémonie des Awards qui couronnent les meilleurs films d’animation tous secteurs d’activité confondus sera l’occasion de refaire un point.

Olivier Pavie @Imagina

Info + : www.imagina.mc

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

L’annonce des résultats spectaculaires d’Apple en 2009  se basait sur une augmentation de 33 % du nombre de Macintosh vendus sur l’année. La presse (voir articles de l’Expansion du 25/01/2010 et de Zone Numerique ) avait relaté que Steve Jobs était le plus surpris.

L’explication est enfin tombée ! Selon IDC*, le marché mondial des microprocesseurs a globalement augmenté de 31,3 % en 2009.

La surprise de Steve Jobs est donc tout à fait explicable : si le marché global du microprocesseur a augmenté de 31,3 %, c’est que le marché global d’ordinateurs a vraisemblablement augmenté dans un rapport extrêmement proche et c’est ce que tend à démontrer l’analyse d’IDC. Les 33% de Steve Jobs ne représentent finalement que sa part habituelle de l’ordre de 6 à 10 % du gâteau …

Pas de miracle donc chez Apple. L’augmentation de 31,3% du marché global est toutefois particulièrement intéressante à retenir.

Olivier Pavie

Info + :

* IDC : +11,7% entre le 3ème et le 4ème trimestre 2009 pour les processeurs pour ordinateurs portables et netbooks, comme l’Intel Atom, +14,1 % pour les processeurs x86  et +4,8 % pour les processeurs de PC de bureau. **Ce qui n’est en revanche pas trop clair, c’est que les processeurs x86 sont utilisés dans les portables, dans les ordinateurs de bureau, voire les serveurs…

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Le Founder Institute fait venir des entrepreneurs de renom international à Paris pour créer 100 startups high-tech en 2010 en France.

C’est ce qu’annonce le communiqué reçu ce matin de mon ami Alain Baritault dont le communiqué intégral suit.

Olivier Pavie

Paris le 21 Janvier 2010: Pour la première fois en Europe, les porteurs de projets et créateurs d’entreprises high-tech pourront bénéficier de l’expérience et de l’aide d’entrepreneurs américains et français chevronnés. Le Founder Institute, Ecole de Startup née dans la Silicon Valley, ouvre son premier cycle à Paris. Il est ouvert à toute personne souhaitant créer ou développer une startup autour de la haute technologie.

Reconnu pour son approche innovante, le Founder Institute réunit les candidats dans un programme intensif de 4 mois. Les sessions de travail sont intégralement animées par un large panel d’entrepreneurs de renommée internationale parmi lesquels:

  • Aaron Patzer, CEO de Mint.com
  • Phil Kaplan, CEO de Adbrite,
  • Phil Libin, CEO de Evernote
  • Mathieu Nouzareth, sérial web entrepreneur, fondateur de Cafe.com
  • Pierre Beyssac, cofondateur de GANDI.NET

Adeo Ressi, CEO du Founder Institute explique : « A l’issue de ce cycle, tous les participants auront crée leur startup et disposeront de tous les éléments de la réussite ». En effet contrairement à d’autres programmes d’accompagnement qui abandonnent la majorité de leurs porteurs de projets en chemin, l’Institut défend pleinement les intérêts des fondateurs au delà de la création de leur entreprise. Tant par son modèle économique que par sa philosophie, l’Institut encourage et renforce l’assistance mutuelle entre fondateurs à travers un important réseau.

Le premier cycle se déroulera en 12 sessions le soir, de mars à juin 2010. Il donne ainsi la possibilité aux candidats qui le souhaitent de poursuivre leur activité professionnelle en parallèle. Chaque session, centrée sur un thème critique de la création d’entreprise, recevra trois entrepreneurs chevronnés qui partageront leur expérience. Au cours des sessions, tous les candidats seront placés sur le « Hot Seat » où ils devront convaincre les entrepreneurs et leurs pairs.

Les inscriptions sont ouvertes dès aujourd’hui sur http://www.founderinstitute.com/apply/10 et seront closes le 15 février 2010. Les candidats seront retenus après avoir rempli un dossier expliquant leurs motivations et leur projet.

Le cycle parisien du Founder Institute est organisé par Alain Raynaud, CEO de FairSoftware et Alain Baritault, Rédacteur en Chef et Analyste à Collectiv-IT. Tous deux partagent une longue expérience de la Silicon Valley avec une passion pour la réussite des entrepreneurs français.

Le Founder Institute www.founderinstitute.com est une école de startup pour entrepreneurs dans les hautes technologies créée en Californie par Adeo Ressi, sérial entrepreneur, créateur du site www.thefunded.com. Le principe de cette école est de s’appuyer sur des entrepreneurs chevronnés pour former la prochaine génération de leaders de sociétés high-tech.

Le Founder Institute représente un label de qualité pour les investisseurs. Il est aujourd’hui présent dans 7 villes aux Etats-Unis et étend sa présence au niveau international avec Paris et Singapour. Il est en passe de créer 500 startups dans le monde en 2010.

Contact à Paris : Alain Baritault Tel : 09-51-71-96-15 alain.baritault@founderinstitute.com
Skype : abaritault

Contact en Californie : Alain Raynaud Tel : +1(408) 667-5118 alain.raynaud@founderinstitute.com
Skype/Twitter : alain94040

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

 

Selon le site Américain Amazon.com de vente de livres en ligne*, Noël 2009  est à marquer d’une pierre blanche – c’est le cas de le dire - ou, plus précisément, d’une boule de neige, pour le livre  au format électronique. C’est en effet la première fois dans son histoire qu’Amazon USA vend plus de livres au format électronique qu’au format papier. Ajoutons à cela que le vendeur aurait également commercialisé entre 750.000 et 900.000 Kindle, son lecteur autonome de livres électroniques sur la seule période du 15 au 19 Décembre 2009.

Ce Noël semble donc montrer la voie que choisira l’Europe dans les deux ans à venir : mettre enfin en place une économie numérique du livre et de la presse puisqu’il s’avère que cela peut être rentable et que cela va dans le sens de l’écologie et du développement durable : plus besoin de déforester pour publier.

Autre atout pour le lecteur assidu, le prix d’un livre au format électronique. Pour exemple, aux USA, le dernier Dan Brown se retrouve à 19,38 $ au format électronique alors que le prix facial de la version papier est à 31 $.

Info + :

Le Kindle permet de lire des livres publiés dans son format propriétaire PRC. Vu que la Fnac propose des livres électroniques au format ouvert epub et vu qu’Amazon France ne commercialise pour l’instant aucun livre électronique en français, il n’est pas dit que le format unanime sera celui d’Amazon. D’autant que Sony fournit notamment des lecteurs compatibles ePub et que le format ePub est suivi par Adobe qui en fait la promotion sur le plan technique avec sa nouvelle version de logiciel d’édition InDesign CS4, et sur le plan « marketing édition »Â au travers de grands éditeurs comme en témoigne cette citation extraite d’un communiqué de presse récemment reçu : « L’adoption du format ouvert EPUB a simplifié notre processus de production de livres électroniques avec InDesign CS4, en réduisant le nombre de formats de destination », constate Charlie Redmayne, chief digital officer chez Harper Collins. « Nos ouvrages au format EPUB encouragent les lecteurs à sélectionner le lieu d’achat de leurs livres numériques, et leur donnent les moyens de visionner et transférer des contenus sur divers équipements. »

*Les chiffres indiqués sont des chiffres communiqués par Amazon USA. Amazon France ne commercialise pas directement le Kindle et les livres numériques ; les livres numériques sont tous en Anglais.

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

medef2009
English (begin)

In the category SMB (Small and Medium Businesses), Watteco has won the 2009 Medef’s First Price for its WPC technology : an Innovative Technology for Sustainable Development. Brilliant ! Medef is the french organisation whose members are Founders, owners and employers of most of the companies.

97 projects were in competition.

Prices were also distributed to Bouygues Immobilier for its Green IT Center, Alcatel Lucent for its Mobile Stations powered by alternative energies, Ecole des Mines for its Entropy project and Greenext as a « coup de coeur ». 

Note by Olivier Pavie (Explorateur-numerique.com and opavie.com) :

I’m very proud having being involved in the White Paper project of this company as Editorial Adviser, Marketing & technologies. WPC is really a reliable low consumption PLC technology that fits all home automation needs.

English (end)

French (begin)

Watteco a obtenu le Prix de la croissance verte numérique 2009 du Medef  dans la categorie PME pour sa technologie WPC : une technologie innovante pour le développement durable.

Parmi les 97 projets présentés, démontrant l’engagement, la créativité des entreprises et leur compréhension des enjeux, cinq ont retenu l’attention du jury :

  • Bouygues Immobilier pour son Green IT Center
  • Watteco pour sa technologie WPC (Watt Pulse Communication)
  • Alcatel Lucent for ses stations de bases mobiles alimentées par des énergies alternatives
  • L’Ecole des Mines pour son projet Entropy project
  • Greenext en tant que « coup de coeur ».

Rappelons que le Medef est l’organisation patronale française qui représente les dirigeants d’entreprises de toutes tailles.  

Note d’Olivier Pavie (explorateur-numerique.com et opavie.com)

Je suis très heureux d’avoir participé dans une certaine mesure à la communication autour de cette technologie en ayant eu un rôle éditorial, marketing et technologique sur le livre blanc que j’ai eu à rédiger pour cette technologie. WPC est une technologie de courant porteur à très faible consommation réellement fiable et adaptée à tous les usages de la domotique.

French (end)

 

http://www.medef.com/actualites/detail/article/remise-du-1er-prix-de-la-croissance-verte-numerique.html


 

Post to Twitter Post to Delicious Post to Facebook Send Gmail Post to LinkedIn Post to Ping.fm Post to Technorati

Older Posts »

Back to Top