Reconstruction de Notre-Dame de Paris : grâce au numérique ?

Reconstruction de Notre-Dame de Paris : grâce au numérique ?

Le numérique au secours de la reconstruction de Notre-Dame de Paris ? L’incendie qui a ravagé la cathédrale Notre-Dame le 15 Avril 2019 a été un choc et un drame. Ceci pour tous les chrétiens, et, globalement pour le monde entier, quelles que soient les croyances et opinions.

Notre époque et le numérique peuvent aider à la reconstruction de Notre-Dame plus rapidement. Olivier Pavie pose un regard optimiste sur la situation. Il montre que le monde du numérique et des nouvelles technologies contribuera à accélérer la renaissance de ce symbole universel.

Reconstruction de Notre-Dame , en quoi le numérique peut-il aider?

Reconstruction de Notre-Dame

Le sujet est vaste. Je ne vais pas rentrer dans les détails ni dans les choix qui s’offrent pour la reconstruction de Notre-Dame. Que ce soit avec d’autres matériaux, avec ou sans un concours d’architecte, etc. Pour commencer, comme il n’est pas possible de construire ou reconstruire sans des plans précis, on peut déjà parler des plans de la cathédrale telle qu’elle était. On peut garantir que jamais dans les 856 ans d’existence de ce monument commencé en 1163, achevé près de deux siècles plus tard, on n’a eu autant d’informations la concernant. Notre-Dame de Paris est aujourd’hui un des lieux les plus documentés. A commencer par les photographies numériques prises par les 13 millions de touristes qui viennent la visiter chaque année. Mais ce n’est pas tout, loin s’en faut.

Des scanners laser 3D utilisés pour Notre-Dame de Paris ?

Les travaux engagés récemment pour son entretien et sa sauvegarde ont nécessité d’être réalisés sur la base de relevés géométriques et structurels utilisant les dernières technologies. On parle ici de méthode classique de relevé mais aussi de scanner laser 3D. Il y a parfois des initiatives et concours de circonstances qui peuvent amener leur pierre à l’édifice si je peux dire. En 2010, Andrew Tallon, historien de l’art spécialiste de la représentation et de l’analyse architecturales par scanographie laser et dans l’architecture gothique avait entrepris la numérisation au laser 3D de l’intérieur et de l’extérieur de Notre Dame.

Un heureux hasard ?

Ce n’était pas vraiment un hasard. Cet historien malheureusement décédé en novembre 2018 à l’âge de 49 ans s’était résolument spécialisé dans l’art gothique français et sur les cathédrales. Il a numérisé plusieurs d’entre elles en France mais aussi à l’étranger, notamment la cathédrale de Canterbury en Angleterre. Il a publié un ouvrage sur Notre Dame de Paris en 2013 co-écrit avec un autre historien, Dany Sandron. En voici d’ailleurs le sujet : « à travers de saisissantes images de synthèse, réalisées grâce à un relevé au laser en trois dimensions, cet ouvrage retrace visuellement les moments-clés de la construction de la cathédrale, puis les remaniements dont elle a été l’objet, jusqu’à la grande restauration de Viollet-le-Duc et Lassus au XIXe siècle. »

Un ouvrage intéressant sur la construction de Notre-Dame au cours des siècles

Cet ouvrage marquait le 850 ème anniversaire de la cathédrale. La précision de la numérisation qu’avait entrepris Andrew Tallon est de 5 mm. La cathédrale ainsi digitalisée a permis de collecter plus d’un milliard de points de référence pour toute la structure. Mais ce n’est pas tout pour ce qui concerne la numérisation. L’éditeur français de jeux vidéo Ubisoft avait entièrement digitalisé la cathédrale en 2014 pour la rendre la plus réaliste possible dans un de ses jeux.

Des éléments suffisants ?

Plus il y a d’informations, mieux c’est. Il y a de nombreux plans de la cathédrale qui ont été faits par morceaux pendant des années. Ce que l’on sait c’est que l’intégralité du relevé de la charpente a été entrepris en 2014 par Rémi Froment et Cédric Trentesaux, deux architectes, et que cela leur a pris deux ans. Quelle que soit la méthode de reconstruction envisagée, y compris à penser à refaire une charpente, par exemple en titane, comme l’a évoqué le célèbre architecte Jean-Michel Wilmotte en indiquant que c’est un matériau moderne, léger et extrêmement solide, on sait exactement et très précisément où se situent les appuis et points d’ancrage de toute la structure, en espérant toutefois qu’un minimum de pierres aient souffert de la chaleur des flammes car le calcaire dont sont faites les pierres a pour inconvénient de ne pas supporter des température trop élevées.

Optimisme pour Notre Dame de Paris

Tout montre que l’on peut être optimiste pour Notre Dame. Nous avons la volonté, nous avons les plans, nous avons le choix dans les projets et matériaux, nous avons les talents et le monde entier participe au financement d’une manière que l’on n’a jamais vue sur terre.

 

Chronique audio diffusée sur RCF le 23 avril 2019

 

 

Sources :

https://www.usinenouvelle.com/editorial/le-numerique-peut-il-venir-au-secours-de-la-cathedrale-notre-dame.N832175

https://www.lemoniteur.fr/article/notre-dame-de-paris-devoile-son-ossature.590209

https://www.youtube.com/watch?v=VAMGRBGU9Js

https://www.amazon.fr/Notre-Dame-Paris-Dany-Sandron/dp/2840967685 

 

Continuer la lecture...

La blockchain, de la monnaie aux services

La blockchain, de la monnaie aux services

Peu de gens ont entendu parler de la Blockchain… A part certaines entreprises et des personnes ayant l’habitude de la finance… Mais si on vous parle du Bitcoin ? Cela devrait résonner aux oreilles de beaucoup de monde. Portrait d’une technologie qui risque de changer le monde dans tous les domaines

Combien de technologies vous présenter comme pouvant changer le monde ? Difficile à dire, il y en a tellement dans tellement de domaines… C’est le jeu de l’avenir des startups, de la finance, des petites et grosses entreprises et l’évolution de l’humanité… La blockchain est déjà un phénomène. Il y a à ce jour près de 200 milliards de dollars de capitalisation rien qu’en capitalisation financière. On peut découvrir ce qu’il en est au jour le jour sur le site coinmarketcap.com. Le fameux Bitcoin occupe la première place avec la moitié de la capitalisation. L’Ethereum est à la seconde avec 20 milliards. Les 98 monnaies totalisent les 80 milliards suivants. Ça c’est le côté cryptomonnaies.  Mais ce n’est que la partie qui émerge de l »iceberg.

La Blockchain peut servir à autre chose ?

Je vais vous expliquer le principe. La Blockchain rebat les cartes du tiers de confiance et de l’intermédiaire en général. Elle touche donc à tous les secteurs d’activité. Les banques et services financiers en premier, mais cela est en réalité beaucoup plus vaste. Tout le secret de la blockchain réside dans le fait qu’il s’agit d’un registre comme on en faisait en papier avant. Un registre dans lequel tout est enregistré mais cette fois avec quelque chose de fondamentalement nouveau. Le principe théorique de la Blockchain, c’est qu’il s’agit d’une base de données hautement sécurisée par chiffrement – ce que l’on appelle aussi le cryptage – entièrement décentralisée et distribuée sur le réseau sans appartenir en majorité à une compagnie ou une personne en particulier.

Comment la blockchain peut-elle être aussi sécurisée?

A cela on ajoute que la moindre transaction est enregistrée puis stockée pour toujours en sachant qu’on ne peut pas créer une transaction qui ne dépende pas de celle d’avant où qu’elle soit dans le monde. La trace est indélébile. La blockchain n’appartient pas à une personne ou une compagnie grâce à une gestion spécifique de la preuve d’un consensus distribué sur l’ensemble des acteurs : pas possible d’enregistrer une transaction sans qu’il y ait acceptation par une majorité. Or il y a plusieurs technologies ou principes fondamentaux qui peuvent être utilisés. On parle de preuve de travail dans le cas de l’ancêtre, le Bitcoin qui date de 2009 et de preuve d’enjeu dans l’Ethereum.

On parle beaucoup d’argent dans cette blockchain, mais à quoi cela peut-il servir d’autre ? On peut créer des blockchains qui n'ont pas forcément besoin d'un consensus ouvert au public comme pour une cryptomonnaie. On peut imaginer d'utiliser une blockchain pour tracer des biens de valeur, pour tracer l'origine d'aliments depuis la production jusqu'à la consommation, gérer des contrats d'assurance, tracer les diamants, tracer les pièces détachées d'origine, authentifier un serveur informatique, etc.

La raison principale de ce changement de technologie, c’est le gouffre énergétique que représente la technologie du Bitcoin qui requiert beaucoup de ressources informatiques pour être tout ce qu’elle est. Le problème de la preuve d’enjeu est qu’elle est un peu moins fiable que la preuve de travail. Des monnaies comme PeerCoin et Decred utilisent une technologie hybride. Mais la Blockchain peut servir à beaucoup d’autres choses. Disons que si on ne parle plus d’argent, on comprend facilement l’importance de la fiabilité de la blockchain dans les transactions.  C’est à partir de là que l’on peut mieux comprendre que cette bonne technologie permet d’envisager toutes sortes d’outils de gestion sécurisés et infalsifiables. On peut envisager du coup un usage pour certifier des documents importants comme des actes notariés, des actes d’état-civil.

Est-ce compliqué pour une entreprise ou une autorité de mettre une blockchain en place ?

On peut créer des blockchains qui n’ont pas forcément besoin d’un consensus ouvert au public comme pour une cryptomonnaie. On peut imaginer d’utiliser une blockchain pour tracer des biens de valeur, pour tracer l’origine d’aliments depuis la production jusqu’à la consommation, gérer des contrats d’assurance, tracer les diamants, tracer les pièces détachées d’origine, authentifier un serveur informatique, etc. On pourrait imaginer que cela s’avère compliqué, mais avec ce qui existe en matière des services sur Internet aujourd’hui avec le Cloud, on trouve des environnements de blockchain prêts à l’emploi si je puis dire. Par exemple, Microsoft a déployé sur son service Azure un kit de développement de blockchain. On voit que l’usage n’est plus du tout dans un domaine utopique.

 

 

 

Continuer la lecture...

Les assistants vocaux

Les assistants vocaux

En 2018, il s’est vendu des millions d’assistants vocaux dans le monde : à quoi servent-ils, comment fonctionnent-ils. Pourquoi sont-ils un gros sujet ?

On les trouve dans tous les magasins tels que la Fnac, Darty, Boulanger, sur les sites Internet, etc. Ils existent sous plusieurs formes. Ils fonctionnent de manière autonome ou avec les systèmes Echo d’Amazon, Google Assistant de Google, Apple HomeKit… On peut même en fabriquer soi-même pour quelques euros…

Qui sont ces assistants vocaux ?

Les assistants vocaux sont des appareils équipés de micros qui écoutent en permanence en attendant un ordre. Ils ne se déclenchent que selon une commande vocale précise. Par exemple, avec Echo d’Amazon, si on est abonné à Spotify ou Amazon Musique, on va parler à Alexa. « Alexa, joue-moi la boîte de Jazz de Michel Jonasz ». Alexa est le mot déclencheur. L’assistant vocal répond, voici la boîte de Jazz de Michel Jonasz sur Amazon Music. Le but de ces assistants est de simplifier la vie des utilisateurs. Et cela sans qu’il y ait à sortir sa tablette ou son smartphone pour commander des actions.

Cet usage est-il trivial ?

On pourrait croire que ces appareils puissent être triviaux. C’est à la fois vrai et faux. En effet, il faut voir que les actions ne s’arrêtent pas à jouer de la musique ou lancer une station de radio. On peut par exemple allumer des lampes dans des pièces. Il suffit d’une commande du genre Alexa, allume la lampe du salon. On peut aussi dire : » Alexa, diminue l’intensité de la lampe du salon, etc ». Pour cela il faut évidemment qu’il y ait des lampes connectées dans la maison… Amazon Echo, Google Home et Apple HomeKit pilotent les lampes connectées Philips Hue.

La maison connectée peut-elle vraiment être pilotée par la voix ?

Pour la maison globalement connectée, on en est encore aux balbutiements. Et surtout il y a encore peu d’acteurs. Mais on peut déjà piloter le chauffage dans chaque chambre. Il y a déjà les produits NetAtmo, assez chers, mais aussi la marque Tado, Nest, et d’autres à venir. On reviendra sur cette maison connectée dans une autre chronique, il y a plein de choses à dire.

Assistants vocaux, quelles fonctions ?

Si je reviens sur le rôle des assistants vocaux et leurs fonctions, il y en a plein. Elles peuvent être utilisées au quotidien. Les assistants utilisent une technologie d’intelligence artificielle pour reconnaître et comprendre ce que vous demandez. Les demandes peuvent aller depuis demander une traduction d’un mot voire une phrase d’une langue à une autre. On peut aussi demander le flash info d’actualité ou de météo locale et nationale. Si vous demandez de raconter une blague, ça marche aussi. Vous vous posez des questions sur ceci ou cela, ça répond ! Rappeler les anniversaires et les rendez-vous d’affaires est possible. Il y a encore créer une « todo list » ou « liste de choses à faire » pour la semaine à venir, etc.

Les fonctions peuvent-elles s’étendre ?Assistants vocaux : Enceinte portable JB Link 10 Blanche avec Assistant Google integre

Il y a même des extensions possibles fournies par des éditeurs de services. C’est là qu’on va trouver les passerelles vers la maison connectée, mais pas que… Il y a aussi les fournisseurs de musique en ligne, les billetteries de spectacles, etc. La liste des services est très longue. Autant que celle que l’on peut trouver sur l’App Store d’Apple. Il y en a également sur le Google Play. Il s’agit d’applications pour les matériels de type tablettes, smartphones et même petits portables sous Android.

Concrètement, comment se présentent ces assistants ?

Sur un point de vue pratique et technique, les assistants vocaux se présentent de deux façons. La version la moins chère se présente comme des petites boîtes munies d’un microphone et de quelques boutons. Dessus, on trouve aussi des sorties audio pour les brancher. Soit en entrée d’une chaîne Hifi. Soit en entrée sur une enceinte connectée avec la possibilité de se connecter en Bluetooth. La seconde manière dont cela se présente, c’est aussi sous la forme d’enceintes connectées. Elles intègrent cette fois l’assistant vocal, c’est le cas de certains produits chez Google, Apple et Amazon.

Peut-on en créer soi-même ?Les assistants vocaux

Ce qui est intéressant, c’est qu’il y a aussi les assistants vocaux que l’on peut s’amuser à créer soi-même. Cela se passe à partir de petites cartes électroniques et de programmation. Le magazine Programmez que l’on trouve en kiosque, dans son Numéro 227 de Mars 2019, titre sur les assistants vocaux. Vous comprendrez la manière de les faire soi-même et de les programmer.

En bref, si déjà on aime tester et s’amuser

Si on est fan de technologies, on trouve des assistants chez Amazon à partir d’une trentaine d’euros. C’est amusant et simple à mettre en œuvre. Avec les propositions d’abonnements gratuits, par exemple pour 15 jours à un service en ligne du genre Amazon Premium Music, il faut juste s’assurer que l’on ne vous abonne pas malgré vous. Si vous ne dites pas oui, quand on vous pose la question, ils ne le font pas. Mais jeter un œil sur son compte n’est pas forcément inutile.

Astuce intéressante, un assistant vocal simple, sans enceinte peut servir à transformer la chaîne HiFi en enceinte connectée bluetooth.

 

Continuer la lecture...

Maison connectée : quelles technologies ?

Tout a changé pour la maison connectée depuis que les Box des opérateurs se sont installées dans tous les foyers. Les réseaux s’interconnectent, chacun adapté à des usages très appropriés.

Dans la maison connectée, il y a des technologies différentes de réseaux . Il y a des technologies connues comme le WiFi. Il existe en plusieurs normes qui relie les équipements les plus voraces en débits de données.  Notamment pour la vidéo. Il y a ceux plus dédiés à des connexions de type audio comme le Bluetooth. Enfin, il y en a dédiées aux objets connectés. Elles ne demandent pas beaucoup de transfert d’informations mais requièrent absolument de l’économie d’énergie. On y trouve Zigbee et Zwave.

Complexe la maison connectée ?Maison connectée : Pont ZigBee Philips Hue

Pas si complexe qu’on pourrait le penser cette maison connectée… Il faut comprendre que si la commande d’un objet connecté consomme un peu trop quand il s’agit de faire des économies d’énergie de chauffage ou de lumière, il n’est pas intéressant de l’utiliser. Surtout quand on commence à vouloir économiser sur les économies de lumière avec des lampes à Led. Elles qui consomment 10 à 15 fois moins que des lampes à incandescence pour la même quantité de lumière ! Imaginez que pour économiser 1 heure d’allumage d’une lampe à Led il faille consommer la même chose en 10 heures par l’outil de commande ! Toutes les dix heures, sans que vous n’ayez besoin de la lumière, vous aurez consommé autant d’énergie que si elle était allumée pendant une heure ! Du gaspillage programmé !

Du gaspillage programmé ? Sauf si…

La technologie Zigbee par exemple utilisée par Philips dans ses lampes Hue et Ikea dans ses lampes Trådfri est capable de travailler pendant plusieurs années avec une simple pile. Avec la même pile, la technologie Bluetooth Basse énergie ne travaillera que quelques jours. Et toujours avec la même pile, la technologie Wifi n’émettra que quelques heures. Ce qu’il faut, c’est que ces technologies puissent travailler ensemble. Ce qui est le cœur du problème, ou plutôt de la solution… Il existe en effet ce que l’on appelle des ponts entre toutes ces technologies. C’est une peu de la même manière qu’un smartphone. Il sait travailler avec le réseau WiFi et le réseau de téléphonie GSM, 3g ou 4G et bientôt la 5G.

Le sans-fil pour la maison connectée ? Une bonne solution

Toutes les technologies citées précédemment sont sans fil. Dans un appartement, dans bien des cas, rien de compliqué. Il y a la box qui distribue le WiFi… Et pour un pont vers des technologies Zigbee, il y a un « pont » qui va être connecté à la box. Ceci fera que tout ce qui se commande en Wifi à partir d’un ordinateur, d’une tablette ou d’un smartphone se transfèrera via le pont Zigbee vers les appareils connectés. Le Zigbee offre une technologie très sophistiquée. Elle est capable de dialoguer en simultané avec plusieurs appareils. Mieux ! Elle peut se servir de certains appareils connectés pour relayer les informations vers des appareils qui ne seraient pas accessibles par les ondes émises par le pont. C’est ce que l’on appelle la technologie Mesh.

Tous des équipements compatibles ?

La compatibilité dépend de la technologie utilisée… Si les équipements sont Zigbee, ils vont utiliser les spécifications de la technologie, et ce qui a fait émerger ces technologies sur les 10 dernières années, c’est le fait qu’il y avait un consensus sur l’intérêt de chaque industriel à accepter cette compatibilité. La même idée qui a fait en son temps le succès du PC qui avait tué dans l’œuf des centaines d’autres idées propriétaires. Néanmoins, cette fois, le Zigbee n’a pas été pensé pour être le plus petit commun dénominateur en excluant le meilleur au profit du service de base. Il est ouvert à toutes les propositions qualitatives et peut se commander par tout type de pont qui respectera la norme au moins pour un service donné. Par exemple, pour des lampes, il y a une compatibilité avec toutes les marques de lampes qui respectent la norme, même si elles n’ont pas toutes les mêmes fonctionnalités : on voit cela avec les lampes Philips Hue, Osram , Ikea et quelques autres. Pareil avec les robinets thermostatiques sur les chauffages à base d’eau chaude ou le pilotage de radiateurs électriques.

Pour conclure, rapidement, on peut faire des choses assez proches avec la technologie Zwave nettement moins sophistiquée et pas pour autant moins chère.

Olivier Pavie

 

 

Continuer la lecture...

Cyberattaques : réflexes de base pour se protéger

Face à la recrudescence des cyberattaques auprès des entreprises et des particuliers, Olivier Pavie, consultant et formateur dans les Nouvelles Technologies, le Numérique et le Marketing Digital nous donne quelques conseils sur les premiers réflexes à acquérir afin de ne pas se faire piéger systématiquement.

Les risques de cyberattaques augmentent d’année en année. Pour les entreprises, le potentiel de risque d’une cyberattaque ne peut plus être négligé. Chacune d’entre elles doit en prendre conscience et imaginer les risques qu’elle prend à ne pas y songer. Elle se fait souvent accompagner pour préparer cela, mais il y a encore bien des négligences. Pourtant, entre l’audit et les formations professionnelles, il y a de quoi être informé, conseillé et formé. Pour un particulier, en revanche, c’est beaucoup plus compliqué…

Pourquoi est-ce plus compliqué pour les particuliers ?

Un particulier n’a pas toujours de repères, il se réfère souvent à sa propre expérience ou à celle de personnes de son entourage. Il y a plusieurs types de comportements. La personne qui se méfie de tout et qui essaie de ne prendre aucun risque sans savoir finalement à quoi elle est potentiellement confrontée. Il y a celle qui utilise tout n’importe comment… Il y a aussi la personne qui est en général attentive, pas forcément méfiante mais qui n’imagine pas ce qui peut lui arriver.  Bref, les gens sont souvent démunis et ne savent pas par où prendre le problème.

Par où faut-il commencer ?

On va partir du principe qu’il y a un antivirus à jour sur l’ordinateur. Avec Windows 10, l’antivirus est installé gratuitement par défaut. Il s’appelle Defender, il n’est pas obligatoire de s’abonner chez un autre éditeur de logiciel antivirus. Sur Macintosh, contrairement à ce que bien des personnes pensent, il faut un antivirus : il y a un nombre phénoménal de malwares, c’est-à-dire de logiciels malveillants qui s’installent sans le consentement de l’utilisateur : ils vont nuire à l’ordinateur sur lequel ils s’installent. Ces logiciels se greffent très bien sur un Macintosh contrairement à ce que dit la légende urbaine. Après cette règle de base, Il y a trois origines principales de risques : les emails, les logiciels téléchargés depuis Internet et certains sites Internet infectés qui peuvent éventuellement infester votre ordinateur si l’antivirus ne gère pas les malwares correctement. Un logiciel qui détecte très bien les malwares sur PC et Macintosh s’appelle Malwarebytes. Son usage est gratuit pendant un mois, qui peut être reconduit longtemps si l’on ne s’occupe pas des messages du type pensez à mettre à jour vers la version payante.

Comment repère-t-on un problème avec les emails ?

Dans certains emails, il y a des virus en pièces jointes qui sont en général détectés par les antivirus : pensez toujours à réfléchir avant d’ouvrir une pièce jointe d’un expéditeur inconnu ou presque et à activer les mises à jour automatiques des antivirus. S’il y a des options pour renforcer la protection contre les rançongiciels, activez-les. Passée cette protection, ce qui est risqué dans les emails, c’est ce que l’on appelle le phishing, ou hameçonnage ou  encore filoutage. Une technique qui consiste à faire croire que l’email provient de votre banque, de la Poste, de votre fournisseur d’accès à internet comme Orange, SFR ou Free, voire de votre hébergeur de site Internet, etc.  C’est ce qu’il y a de plus dangereux car cela vous invite à vérifier votre compte parce que vous êtes en découvert ou alors parce que le dernier prélèvement n’a pas pu être fait. Il vous demande donc de rentrer les caractéristiques d’accès à votre compte, y compris le mot de passe sur un faux site Internet.

Comment détecte-t-on un faux site Internet ?

C’est très simple, vous passez votre souris sur le lien sans cliquer et en surimpression s’affiche le vrai lien qui risque d’être déclenché… Et bien entendu, on découvre que ce qui était censé venir d’Orange ou de SFR n’a pas un lien direct vers le site mais quelque chose qui peut y ressembler, ou parfois ne rien avoir affaire avec. Faites aussi attention à l’orthographe dans le mail, le texte qui n’a pas forcément d’accents, etc. En cas de doute, supprimez ce mail. Si votre banque doit vous contacter et si c’est vraiment important, elle le fera autrement. Appelez-la au besoin. Attention, et j’insiste, parfois c’est très bien fait. Connectez-vous au vrai serveur de votre banque ou autre et bien souvent il y a un message en page d’accueil qui mentionne qu’une campagne de phishing est en cours et que vous devez faire attention.

Quels sont les autres risques ?

Bien souvent, vous voulez charger la dernière mise à jour d’un logiciel gratuit comme Adobe Reader, ou Adobe Flash, ou d’autres outils. Vérifiez toujours que l’adresse de téléchargement est sur un site avec une adresse commençant par https au lieu de http. Vérifiez également que vous êtes sur le site de l’éditeur, voire d’un site de référence pour le téléchargement comme 01Net, Clubic, ZDnet…

Des sites internet infectés ?

Le troisième grand risque est celui du site Internet infesté. Il peut vous diffuser un message dont vous n’arrivez pas à vous débarrasser vous indiquant que votre PC est infecté et qu’il faut appeler tel ou tel service payant pour vous aider. Une escroquerie de grande envergure en France a été détectée il y a quelques temps. Des millions d’euros ont été volés par des faux techniciens et des fausses pannes. Rester vigilant est une obligation mais il faut mémoriser que c’est l’utilisateur qui déclenche les actions. En cas de doute, débranchez la machine et contacter un professionnel ou un ami éclairé qui prendra les précautions nécessaires pour résoudre le problème.

 

Olivier Pavie

 

Valorconseil-paca.com

 

 

 

Continuer la lecture...

Ecrans 8K, Oled et Micro-led

Alors que les écrans 4K se démocratisent dans les foyers, Olivier Pavie, consultant et formateur dans les Technologies, le Numérique et le Marketing Digital nous parle cette semaine des écrans de télévision 8K qui commencent à poindre le bout de leurs pixels. Alors pourquoi une telle nouveauté ?

Pourquoi du 8K ? Comme pour toute innovation, on peut se poser la question, mais ici, il faut voir les choses plus largement, ce qui est le cas de le dire. Certes la résolution 8K signifie 7680 pixels de large par 4320 pixels de haut. La 4K quant à elle signifie 3840 pixels de large pour 2160 pixels de haut. Le 8K est donc 4 fois plus de résolution que le 4K et du coup 16 fois plus que la HD.

Un ecran 8K Sony Full Led ZG9 en technologie classique LED avec un rétroéclairage LED complet, d'où l'appellation Full LED

A quoi cela peut-il servir ?

Pour l’instant la 8K est démonstrative ; il n’y a pas aujourd’hui de contenus disponibles dans cette résolution à part quelques-uns au Japon. Mais notez tout de même que cette résolution 8K signifie des images en 33 millions de pixels. Et là, vous constaterez que l’on trouve des appareils photo capables de prendre des photos jusqu’à une résolution de 50 millions de pixels comme les appareils reflex Canon 5DS et que beaucoup d’appareils photo haut de gamme ont une résolution d’au moins 30 millions de pixels. Les écrans 8K peuvent donc servir des besoins d’affichage très qualitatif, surtout en fonction de la technologie d’affichage utilisée, Oled ou micro-leds.

Technologie Oled ou micro-leds ?

Deux technologies de très grande qualité sont d’ores et déjà en concurrence pour l’affichage qui dépasse les classiques technologies LED. L’Oled est le plus connu. Originellement commercialisée par LG, la technologie Oled n’a pas besoin de ce que l’on appelle un rétroéclairage comme pour les écrans LED ou LCD qui utilisent des cristaux liquides. Chaque pixel ou point d’un écran Oled est ce qu’on l’on appelle auto-émissif. Chaque point agit en quelque sorte comme une lampe pouvant afficher toutes les couleurs possibles ou être éteinte. Ceci a pour résultat un noir parfait quand la lampe est éteinte alors qu’avec la technologie de rétroéclairage, il y aura toujours un halo de lumière qui arrivera à passer entre chaque point de couleur allumé ou éteint, ce qui ne permettra pas un contraste infini. L’Oled signifie Organic Light-Emitting Diode ou, en français diode électroluminescente organique. Le terme organique vient du fait que l’on travaille avec des matériaux issus de la chimie organique, c’est-à-dire de la chimie du carbone et de ses composés, naturels ou synthétique que l’on étudie au lycée.

Quelle différence avec les micro-leds ?


La technologie micro-leds est basée sur les leds ou diodes électroluminescentes. Les leds, ce sont des composants électroniques que l’on utilise depuis des décennies pour faire des voyants verts, rouges, jaunes dans les véhicules et sur plein d’équipements électroniques. On a tous une télévision qui a un voyant rouge allumé quand la TV est en veille. Bref, on le sait, depuis ces dernières, les usages des leds ont explosé avec l’arrivée des lampes à leds qui ont remplacé les lampes à incandescence, les lampes halogènes et les lampes fluo. Il y a même des lampes à leds qui changent de couleurs comme on le veut. Eh bien, les écrans micro-leds reprennent la même technologie mais pour faire des leds microscopiques de la taille d’une tête d’épingle. Si LG a pour fer de lance l’Oled, c’est Samsung qui a les micro-leds en fer de lance, à tel point qu’au CES de Las Vegas en 2019, Samsung a montré le premier écran 8K fait à partir de micro-leds.

Y aurait-il une bataille commerciale en préparation entre Samsung et LG ?

Samsung n’a jamais adopté l’Oled et a toujours poussé le concept du LCD le plus loin possible, notamment avec le Qled. LG a été le pionnier de l’Oled et a même réussi à fédérer Sony depuis près de 3 ans sur cette technologie, et même Panasonic y est passé ainsi que d’autres fabricants. Samsung est un géant qui va avoir lui aussi sa propre technologie d’autant plus concurrentielle de l’Oled qu’elle est plus fiable à long terme en matière de qualité des couleurs. Ce qui est intéressant, c’est quand même que les deux technologies vont pouvoir cohabiter car elles n’ont pas forcément que des applications concurrentes : on ne peut pas faire des écrans enroulables en micro-leds et en Old on ne peut par exemple pas faire des écrans ayant toutes les hauteurs et largeurs possibles et imaginables.

 

Bref, tant de choses encore à découvrir et à imaginer grâce à ces deux technologies. Le fait qu’elles soient utilisées en concurrence pour dynamiser la Télévision 8K n’est finalement qu’anecdotique.

 

Olivier Pavie avec la participation d’André Sanchis sur RCF Méditerranée

Note : la photo de l’écran 8K Sony Full Led ZG9 en technologie classique LED est avec un rétroéclairage LED complet, d’où l’appellation Full LED qu’utilise Sony. Ce n’est ni du Oled, ni du Micro-led.

Continuer la lecture...

Un OS Souverain en France ? Une aberration politique, économique et technologique

Un OS Souverain en France ? Une aberration politique, économique et technologique par Olivier Pavie, consultant, auteur et journaliste dans les nouvelles technologies et la communicationUn OS Souverain en France ? Une aberration politique, économique et technologique

Les députés ont récemment adopté un amendement concernant l’étude de la mise en place d’un OS souverain. D’une part de quoi s’agit-il et d’autre part, qu’est-ce que cela implique ?

Parler d’OS c’est parler de système d’exploitation des ordinateurs et autres équipements informatiques. Sur les ordinateurs modernes, le système d’exploitation est principalement Windows sur les PC, on l’appelle MacOS sur les Macintosh, Android sur certains téléphones, mais aussi IOS sur les iPhones. Il y a aussi Linux qui est souvent utilisé mais plutôt dans des domaines professionnels assez ciblés. Si la France voulait se doter d’un OS dit souverain, ce serait pour que les ordinateurs français, et principalement ceux des administrations fonctionnent sur un système qui ne serait rien de tout ce que je viens de citer. Il faudrait le créer.

Quel serait l’intérêt ?

Sur le papier, c’est simple, l’intérêt c’est que l’on serait certains que tous les programmes et toutes les fonctions qui composent le système d’exploitation n’auraient pas des logiciels espions et des fonctions cachées qui permettraient d’aller voir ce qui se passe sur les ordinateurs.

Toutefois il y a plein de mais, c’est comme une idéologie politique, on sait très bien que rien ne peut être parfait, qu’il y aura des gens qui trouveront des failles de sécurité, qui développeront des virus etc. En plus de l’OS qui va déjà coûter une fortune, le paradoxe c’est qu’il faudra sans cesse dépenser d’autres fortunes pour développer des logiciels qui existent déjà et que l’on trouve gratuitement parce qu’ils n’existeront pas sur l’OS que l’on aura réinventé.

On parle d’un Milliard pour l’OS…

Le chiffre d’un milliard d’euros circule sur Internet, mais là encore, je me permets d’avancer que c’est une grande idiotie ; on voit que les ministres, l’assemblée nationale et les députés n’ont absolument pas le niveau pour débattre de ces sujets qui les dépassent ; ce sont les lobbyistes qui agissent dans l’ombre pour alimenter les caisses de grosses compagnies françaises.

Je vais vous donner un bon exemple à ne pas reproduire et qui se rapproche de notre sujet d’OS Souverain. Le plus intéressant étant que le dénouement de cet exemple s’est passé dans la même semaine que le vote des députés sur l’OS souverain. Ne pas y voir une relation serait faire la politique de l’autruche.

Cet exemple, c’est celui du projet de Cloud souverain décidé en 2012. Il s’avère être un fiasco politique et économique alors qu’il était beaucoup plus simple à réaliser que l’OS souverain dont on parle ici.

Pourquoi un fiasco politique et économique ? Politique parce que ce sont des incompétences et mauvaise connaissance de l’existant technologique par les députés qui ont prévalu.

Economique parce que les sociétés Cloudwatt et Numergy créées pour l’occasion par le gouvernement avec l’argent de la caisse des dépôts, d’Orange et de Thalès, valorisées chacune 225 Millions au départ, soit 450 millions à elles deux, ont réussi à réaliser 8 millions de chiffre d’affaires à elles deux en 2014.

J’ajoute qu’en 2015, Cloudwatt a été reprise à 100% par Orange pour un prix non communiqué et certainement proche de 0, et que Numergy, placée en plan de sauvegarde en Octobre 2015 a été absorbée par SFR à 100% en janvier 2016 pour un prix non communiqué mais vraisemblablement pour 1 euro symbolique et l’obligation de trouver une solution pour les salariés repris ou pas.

Si on revient sur l’OS souverain, imaginez que la situation risque d’être bien pire…. Si on arrive à faire cet OS, 1 Milliard c’est à la fois beaucoup et très peu. Windows a coûté plusieurs dizaines de Milliards à Microsoft depuis 1985, en 30 ans… Cela montre d’une part que cela ne se fait pas tout seul et pas en soufflant dessus et en tous cas pas avec quelques dizaines de programmeurs pendant deux ou trois ans comme j’ai pu le lire dans la presse généraliste qui elle non plus n’y connait rien en numérique ou presque. Ce milliard ne tient pas compte des programmes qu’il va en plus falloir développer pour faire fonctionner tout ça. Sans compter la maintenance, les antivirus et dispositifs d’anti-piratage qu’il va falloir mettre en place, les évolutions de l’OS, les déploiements de mises à jour de parcs, les personnes qu’il va falloir former. S’agira-t-il encore de fonctionnaires puisque seuls les ordinateurs de l’administration française en seront équipés ?

N’y a t-il pas déjà un OS en France sans avoir besoin d’en redévelopper ?

L’ANSSI, l’Agence Nationale de la Sécurité des Systèmes d’Information a développé depuis 2005 un logiciel baptisé CLIP. C’est presque un système d’exploitation, mais en fait cela s’appuie sur une base de système d’exploitation Linux. C’est une couche logicielle étanche en termes de sécurité entre Linux et les applicatifs de communication de l’ANSSI et l’usage éventuel d’un système d’exploitation plus classique qui peut être installé, comme par exemple Windows qui fonctionne lui aussi dans une bulle étanche par rapport aux applications de l’administration mais reste un vrai Windows dans son fonctionnement et son ouverture vers les réseaux.

CLIP comme solution ?

Si les lobbyistes que sont les grandes sociétés de service n’étaient pas derrière cette manipulation politico économique, la question ne se poserait pas : CLIP est une solution et il y en a surement d’autres. En ce qui concerne le lobbying, je rappelle que l’une des plus grosses sociétés de service en informatique est Atos et qu’elle est dirigée par un ancien ministre de l’économie et des finances et ancien PDG de France Telecom : Thierry Breton. Ces noms sont tous impliqués dans le fiasco du Cloud souverain dans lequel Atos, société privée récupère à la pelle actions dans Bull, partenariats avec l’Europe, etc.

Si je reviens précisément à mon sujet, pourquoi réinventer la roue et dépenser de l’argent là-dedans alors que nous devons nous concentrer sur notre compétitivité, sur l’emploi, la formation dans les nouveaux métiers du numérique, l’éducation, etc.?

L’OS Souverain est une aberration économique et politique qui ne sert que les desseins de sociétés privées qui s’enrichissent à bon compte, comme les banques qui se sont renflouées sur le dos des états et des contribuables dans les années 2008/2009

Podcast de l’émission du 30/01/2016 sur RCF Méditerranée

Continuer la lecture...

Des objets connectés, oui mais pas pour n’importe quoi…

Les objets connectés ou l'Internet des objets par Olivier Pavie sur RCF dans sa chronique Explorateur Numérique du 9 Janvier 2016Des objets connectés, oui mais pas pour n’importe quoi…

[Chronique en podcast audio à la fin de cet article et lien direct sur RCF] Les objets connectés sont mis à toutes les sauces créant une sorte de ruée vers l’or, une tendance à tout vouloir connecter et interconnecter. De quoi s’agit-t-il ? Quelle valeur ou quel sens accorder à telle ou telle idée ? C’est ce que propose d’éclaircir Olivier Pavie, consultant en nouvelles technologies et en communication avec les nouvelles technologies.

Pour commencer, rappelons que la notion d’objet connecté est identique à l’expression Internet des Objets, en anglais IoT pour Internet of Things. Un objet connecté a donc de près ou de loin un rapport avec Internet, en sachant qu’Internet est aujourd’hui capable de relier à peu près tous les services liés à l’informatique et aux données à n’importe quel objet par le simple fait qu’il existe des puces électroniques qui coûtent quelques centimes qui peuvent dialoguer avec leur environnement avec des technologies comme le Wifi, mais surtout avec des technologies à très basse consommation électrique sans fil comme le Bluetooth Low Energy ou BLE, ou le Zwave ou encore le ZigBee. Pour donner une idée de la consommation électrique, le ZigBee a été pensé pour pouvoir communiquer cinq ans avec son environnement avec une simple pile bâton 1volt5 de type AA. Et quand je parle de puces à quelques centimes, ce sont des puces électroniques plus puissantes que nos ordinateurs des années 80 et 90 qui tiennent sur la pointe d’un ongle.

Quels sont les services que l’on peut attendre de ces objets ?

ça part dans tous les sens : la pertinence du service sur un marché et l’intelligence déployée dans sa conception, c’est là-dessus que tout repose. J’ai parlé il y a quelques semaines de Linky, le nouveau compteur électrique d’ERDF/EDF : il s’agit d’un objet connecté qui dialogue avec le réseau EDF et avec des objets dans la maison. Aujourd’hui ce peut avec un écran qui permet de visualiser la consommation électrique instantanée, ce peut être le pilotage des radiateurs de la maison en fonction d’un besoin en température dans certaines pièces, ce peut être de piloter la mise sous tension ou l’extinction de lampes, le pilotage des détecteurs de fumée.i

Il ne faut pas que tout cela se mélange avec les objets connectés du voisin !

Les services oui, mais avec l’assurance d’avoir ces services de manière confidentielle et très sécurisée. La sécurité est un des challenges des objets connectés, tout en sachant qu’ils doivent pouvoir être interchangeables, compatibles, évolutifs soit par remplacement, soit par mise à jour de fonctions comme on l’a vu récemment avec la montre Apple qui ne tirait son intelligence que de l’iPhone dans la première version logicielle et qui est aujourd’hui capable de contenir des vrais programmes indépendants du téléphone dans la version 2, ceci sans changer de montre mais juste en la mettant à jour.

Un monde très complexe !

Ce monde des objets connectés est extrêmement complexe sur un plan technique et ça doit être extrêmement simple pour l’utilisateur : ce paradoxe a toujours été celui de l’informatique et avec les objets connectés, cela se corse encore davantage ! 0n a parlé de services dans la maison, il y a aussi tous les services liés à la santé pour lesquels il faut encore améliorer la manière de transmettre des informations très confidentielles. J’ai également abordé le sujet d’un bracelet connecté qui mesure l’activité physique et des paramètres vitaux pour le compte d’une assurance santé : imaginez que le bracelet remonte des informations nominatives sur des paramètres vitaux défectueux… Il y a deux moyens de voir la suite des évènements : soit cela permet d’hospitaliser la personne à un moment qui est encore très précoce dans le diagnostic, soit cela donne l’information à l’assurance santé de faire attention à cette personne sur un plan financier : les risques ont augmenté, le prix de l’assurance est augmenté en conséquence.

Des dérapages sur le plan éthique ?

L’un des autres challenges des objets connectés et notamment dans la santé, c’est d’utiliser les informations à bon escient. Avec des informations rendues anonymes remontées par des centaines de milliers d’appareils conçus de manière intelligente, on peut travailler sur l’amélioration de la santé publique sans problème éthique, il s’agit alors d’un objet connecté à vocation positive. Si le but est d’adapter les prix des contrats tout comme il y a des bonus et des malus en matière de conduite automobile, on est dans un autre monde qui n’est pas humaniste puisqu’il ne tient pas compte de la notion d’égalité en droit dans la naissance et on ne nait pas tous avec la même santé.

Des objets connectés qui peuvent avoir un impact positif sur l’humanité?

Il y a de nombreuses idées positives comme par exemple les équipements qui vont permettre d’arroser très précisément les plantes en fonction du degré hygrométrique du sol et de l’air, les drones qui vont être capables de planter des millions ou des milliards d’arbres, les puces implantées qui vont permettre d’établir des diagnostics de santé permanents sur des personnes très fragiles pour améliorer leur vie quotidienne, les compteurs électriques intelligents qui vont permettre d’économiser des centaines d’usine de production d’électricité au charbon en chine et aux etats unis et sur d’autres énergies fossiles partout dans le monde, tous les objets qui vont avoir un but proactif et actif dans l’accomplissement de tâches utiles qui respectent l’aspect éthique et humaniste et s’insèrent dans un projet sociétal.

Article intéressant  sur startups dans le domaine de l’IoT : http://lentreprise.lexpress.fr/creation-entreprise/idees-business/les-objets-connectes_1732141.html

 

Continuer la lecture...

Révolution : nos ordinateurs 1000 fois plus rapides avant 2020 avec la mémoire 3D Xpoint

olivier-pavie-consulting-reflexion-systeme-information-cloud
Nos ordinateurs 1000 fois plus rapides avant 2020 ? Une technologie de rupture dans la structure des mémoires des ordinateurs va radicalement changer la manière dont ils vont être architecturés. La mémoire 3D XPoint de Intel et Micron au coeur de cette révolution commence à être produite en masse dès 2016…
Chronique audio en podcast au bas de cet article et sur RCF

Téléchargement de la chronique ici

 

Une mémoire vient d’être inventée par Intel et Micron, les deux plus grosses sociétés du monde dans le domaine des puces, des processeurs et des mémoires. Cette technologie qui va commencer à être produite en masse dès 2016 remet en cause l’architecture de fonctionnement des ordinateurs dans le fait qu’elle va permettre d’accéder à la mémoire habituellement stockée sur les disques durs avec une vitesse 1 Million de fois plus rapide, soit 1000 fois plus rapide que sur les mémoires flash comme les mémoires qui sont sur les clés USB ou les disques durs SSD. En plus, l’ensemble de cette mémoire est 1000 fois plus fiable que la mémoire des clés USB et des disques SSD.

En fait, Intel et Micron ont créé une mémoire non volatile qui va aussi vite que la mémoire vive habituelle des ordinateurs mais se trouve être bien moins chère et même moins chère que les moins chères des mémoires de type SSD. Cela veut dire que le processeur central, au lieu de travailler très vite avec 4 ou 8 go de mémoire vive, va travailler très vite avec des mémoires de 400 ou 800 Go ou 1,6 Tera octets. Cela veut dire que le processeur principal va travailler de concert avec le processeur graphique pour traiter en temps réel les énormes capacités d’informations qui peuvent par exemple composer un univers en 3 dimensions. Cela signifie que l’on va pouvoir développer des nouvelles façons d’accéder aux données pour les traiter dans tous les domaines dans lesquels sert un ordinateur, c’est-à-dire dans l’intégralité des métiers. Cela veut dire que pour traiter la modélisation d’une voiture entière en changeant quelques pièces, le temps de rendu prendra 1000 fois moins de temps et peut être encore moins de temps que cela : au lieu d’un mois de calcul, quelques minutes suffiront.

Les datacenters premiers clients

Pour moi, ce sont les datacenters et autres centres de calculs très gourmands en puissance de calcul et de mémoire qui vont investir massivement dans cette mémoire car cela va leur permettre d’augmenter leur temps de disponibilité, d’avoir moins de maintenance tout en augmentant les volumes de traitement de données sans changer la taille physique des bâtiments. Ils vont soit faire gagner des mois de travail à certains utilisateurs, soit permettre de travailler sur des sujets, notamment dans la médecine, qui n’auraient pas pu être traités avant des années. Des progrès fulgurants à attendre dans le domaine des gènes, de l’ADN, etc.

Comment cela a pu être réalisé…

Les chercheurs de chez Intel et Micron ont réinventé la mémoire avec une technologie de rupture. Elle remet en cause les autres types de mémoires parce qu’elle a été pensée autrement et que les progrès de la recherche ont permis de résoudre des problèmes insurmontables il y a encore quelques années. C’est la combinaison de ces deux atouts qui a permis de créer cette mémoire dont le nom s’écrit 3D XPoint et s’énonce 3D Crosspoint ; et si elle porte ce nom, c’est parce qu’elle est pensée non seulement pour être plus dense que les autres mémoires en termes de surface mais également parce qu’elle est capable d’empiler les couches en 3D sur plusieurs couches. Tout cela avec un mode de stockage des bits de données entièrement revu et corrigé. Ajoutons à cela que ce n’est que la première génération et que les prochaines générations de consoles de jeux vont transformer notre relation au jeu et à l’univers dans lequel elles nous ont habitué.

Pour finir, il faut comprendre que cette mémoire étant non volatile et 1 million de fois plus rapide que le disque dur, Windows, MacOS ou les consoles de jeux démarreront aussi vite que le temps d’appuyer sur le bouton de mise sous tension !

Olivier Pavie

 

 

 

 

Continuer la lecture...

Explorateur Numérique sur RCF : Stratégie de mots de passe

olivier-pavieCette semaine, Olivier Pavie, consultant et écrivain/journaliste dans les nouvelles technologies alerte sur les dangers d’une mauvaise stratégie de mots de passe (écoutez le podcast à la fin de cet article).

Le chef de la CIA s’est récemment fait pirater des informations classées secret défense, comment cela est-il possible ? C’est tout simple. Les utilisateurs d’Internet n’ont pas encore compris que la plus grande sécurisation sur Internet tient déjà dans le ou les mots de passe qu’on utilise : tout est dans la stratégie de mots de passe !

Selon le jeune pirate qui a pu accéder à ces secrets d’état, il n’aurait utilisé que de l’ingénierie sociale, c’est-à-dire qu’il se serait renseigné sur le directeur de la CIA, les dates de naissance de ses proches, les prénoms, etc. pour trouver le mot de passe de son compte email. Imaginez que ce brave directeur de la CIA dont le développement de l’acronyme signifie quand même Central Intelligence Agency, c’est-à-dire Agence centrale de l’intelligence, sous-entendu des Etats-Unis, s’est contenté d’utiliser un mot de passe basé sur des informations personnelles.
Les gens pensent que c’est plus simple à retenir, et passez-moi l’expression, ceux sont ceux qui ne pensent pas plus loin que le bout de leur nez. Est-ce qu’ils confient le code de leur compte bancaire en ligne à n’importe qui ? Est-ce qu’ils n’ont pas appris par cœur leur code de carte bancaire pour payer chez les commerçants ? Est-ce qu’ils montrent à tout le monde la combinaison de leur cadenas à code ou de la désactivation de leur système d’alarme ? Vous rendez-vous compte qu’en tant que consultant j’ai eu à expliquer à des patrons d’entreprise que l’on ne met pas le mot de passe de son compte sur un post-it sur le bord de son écran… et eux de me répondre : « oui mais il est trop compliqué » !!!

Il faut que tout le monde comprenne que toutes les meilleures solutions de sécurisation informatique ne serviront à rien tant qu’il y aura ce que j’appelle des irresponsables. Et même si le mot est fort, c’est une évidence. Pour vous dire, j’ai demandé des décharges écrites à certains clients pour qu’ils me disent qu’ils étaient conscients des risques encourus à ne pas utiliser des mots de passe sécurisés ou à utiliser des mots de passe que plusieurs personnes connaissaient dans leur entourage !!!

Alors que faire pour avoir un bon mot de passe ? Un bon moyen de créer un bon mot de passe est par exemple d’utiliser une combinaison de lettres minuscules et majuscules et d’y accoler un code de carte bleue que l’on n’utilise plus, et bien entendu, cette combinaison de lettres n’a aucun lien avec des personnages proches ayant existé dans votre vie, et surtout pas abcd, xyz ou autre suite de lettres très employée. Par ailleurs, il est impératif de ne pas confier ce mot de passe à qui que ce soit. Autre idée complémentaire, si vous avez bien mémorisé ce mot de passe « sérieux », rien ne vous empêche d’en imaginer quelques variantes : les variantes peuvent être très simples à retenir sur un mot de passe complexe.

Comment fait-on alors si on doit autoriser quelqu’un à utiliser son compte à un moment donné ? Cette personne va connaître votre mot de passe… Il y a des moments où il faut confier son mot de passe. Dans le monde de l’informatique professionnelle, il y a des serveurs qui vont autoriser des personnes à accéder à telle information ou telle autre avec son propre compte, il y a aussi la possibilité de déléguer. Dans le monde personnel, il n’y a généralement qu’un seul moyen d’accéder au compte, c’est avec le nom du compte ou le numéro de compte quand il s’agit d’une banque, et à partir de là, on y ajoute le mot de passe que vous seul connaissez.

La seule solution quand on ne peut pas déléguer des droits à un autre compte consiste à changer momentanément son propre mot de passe pour permettre à cette personne d’accéder au compte. C’est le minimum requis pour garder la confidentialité sur votre meilleur système de défense contre le piratage des données, l’usurpation d’identité, … j’en passe et des meilleures.

Continuer la lecture...