La dématérialisation des systèmes, la virtualisation de machines et systèmes serveurs avec composants réseaux (cartes, vSwitch) liés au Cloud ont permis d'aborder de nouvelles fonctionnalités pour ouvrir de nombreuses perspectives; le stockage des données, le partage d'applications, la sécurité des transactions, les bases de données avec accès à des middleware ou projet de développement et l'incontournable réseau. La virtualisation avec "l'émulation" système, applicative ou de la topologie réseau, ont permis de faire un saut technologique.
Différences entre hyperviseurs, le type 1 et 2: D’une part, l’hyperviseur de type 1 a un accès direct aux ressources sans passer par une application tierce. D’autre part, les ressources sont completement dédiées aux Machines virtuelles avec une meilleur autonomie, plus de fléxibilité tout en permettant un gain de sécurité. Les hyperviseurs de type 1 sont plus utilisés en production que les hyperviseur de type 2 qui nécessitent de passer par une application afin que l'hôte puisse émuler l'OS. La différence est cependant une notion pas très facile appréhender.
L'hyperviseur de type 1 utilise directement la couche matérielle physique, alors que le type 2, utilise une formule hébergée d'ou le terme "hosted" ou hôte matériel. Un OS est "monté ou mounted" comme système émulé.
La virtualisation pour tenter de simplifier le concept, correspond à une "couche d'abstraction" sur laquelle on créé une couche logicielle à partir de l'image ISO d'un système d'exploitation qui "émulée" devient un système virtuel (hébergé sur un hôte). A l'époque il s'agissait de virtualisation de type 2. L'intégration de la virtualisation sur Windows a commencé à être native à partir de Windows 8-8.1. Pour virtualiser un poste client il fallait installer des logiciels de type 2 "Virtual PC" puis "Virtual Server", qui servaient d'hôtes. Pour IBM, créateur de la virtualisation cette technologie est un processus qui permet une utilisation plus efficace du matériel informatique et qui pose les bases du cloud computing. L'offre de services d'IBM de virtualisation de partage applicatif le VM/370 crée dans les années 70 apparait. Il mermet à plusieurs utilisateurs d'utiliser un système DOS/VSE alors que la fonctionnalité n'existait pas. Puis VMWare et ses hyperviseurs de type 1 et 2 transforme la virtualisation et lance son premier logiciel de virtualisation Workstation 1.0 en 1999 suivi d'une offre tous les 2 ans suivi de l'hyperviseur, ESX Server 1.5 en 2002. En consolidant plusieurs serveurs sur des terminaux physiques, ce produit améliore les performances, simplifie l’administration et permet aux entreprises de réduire leurs coûts. VMware se taille une part importante avec l'acquisition d’AirWatch en 2014 pour 1,54 milliard de dollars. Avec AirWatch, VMware devient bientôt un acteur majeur de la gestion des terminaux mobiles, qui permet aux entreprises de répondre à la demande croissante d’utilisation de terminaux personnels (BYOD) sur le lieu de travail.
Par ailleurs la popularité de VMware augmente lorsque la Société prend l’engagement d’arriver à la neutralité carbone et à une utilisation d’énergie renouvelable à 100 % pour ses opérations internationales d’ici 2020. Les objectifs de VMware 2020 soutiennent la mission de l’entreprise de représenter une force motrice dans le monde, et d’apporter à la société, à l’environnement et à l’économie mondiale une contribution supérieure à sa consommation.
Pour revenir à la technologie son principal conccurent Citrix avec "Presentation serveur", lance "XenApp" en 2008. Avec Xen (open source) comme hyperviseur qui devient XenServer puis XenCenter (Hyperviseur de type1, après l'achat des codes sources de Windows) amméliore son produit avec la possibilité de virtualiser le réseau.
Les cartes mères sur lesquelles l'hyperviseur de type 1 fonctionne sont dotés de ressources importantes. Les logiciels "encapsulent" les disques de stockage des Machines Virtuelles avec les extensions, VMDK, VHD et VHDX, VDI, etc. (.vmdk est le format historique VMWare, .vdi est le format utilisé par Oracle, .vhd et le format de Microsoft avec.vdhx pour les disques de Microsoft Hyper-V qui a permit de monter des disques de non limités à 2To avec le format .vhdx. Cela permet de repousser la limite à 64To ! Enfin, Citrix XenCenter peut sous la condition que vous bénéficiez du "rôle d’administrateur de pool", intégrer les deux formats, celui de Microsoft et celui de VMware (.VHD et .VMDK) pour les Machines Virtuelles.
Avantages de la virtualisation
Infrastructure virtualisée ESXi et composants; VM, vMotion et vDS L2.
Comment gérer et configurer les interfaces réseau sur ESXi
Comment migrer une virtuelle Machine avec vMotion sur un autre ESXi, sans arrêt de service.
Le Cloud soutient "l'infrastructure"; concernant le réseau, il stocke les bases de données, équilibre, réparti les charges, assure avec un contrôleur, la gestion des réseaux (des réseaux locaux d'entreprises, aux sites distants, sucursales, entrepôts, etc.) La gestion des données entre sites et les flux de fonctionnement, assure une répartition en appliquant des politiques de sécurité pour des accès sécurisés, soit par site ou par groupe de sites avec une sécurité renforcée. Une salle de serveurs avec des racks de baies disque qu'on appelle "Centre de données" permettent d'associer au Cloud ces types de services qui sont généralement au nombre de trois ;
Le plus connu: le SaaS, utile lorsque vous avez besoin de redondance et de disponibilité. Le PaaS peut être une plate-forme de développement d'applications, Groupware, worflow, application metier dans le Cloud (Public, Privé, Hybride) qui offre plus de flexibilitée.
Le IaaS permet de bénéficier d'une infrastructure doté de plusieurs serveurs VMWare et Virtual Private Server (VPS) pour reproduire ou "simuler" un environnement complexe pour mettre à disposition des Machines ainsi que des Commutateurs (Switch).
Ainsi, l'entreprise se déleste peu à peu de son infrastructure serveurs et des appliances réseaux. Les mises à jour, la maintenance et la supervision des composants virtualisés (routeurs, commutateurs physiques, politques d'accès, fonctionnalités (Network Fonctionning Virtualisation) deviennent des services comme VMWare et le SDN de Cisco (Software Defined Networking).
Ces deux approches reposent sur la virtualisation du réseau. En revanche, leur manière de séparer les fonctions et de dissocier les ressources diffère. La SDN sépare les fonctions de mise en réseau des fonctions de contrôle du réseau, dans le but de centraliser la gestion et la programmation du réseau. La NFV permet de dissocier les fonctions réseau du matériel. Elle fournit l'infrastructure sur laquelle la SDN s'exécute. En fonction de vos objectifs, vous pouvez associer NFV et SDN sur du matériel standard. Avec ces deux approches, vous pouvez créer une architecture réseau plus flexible et programmable, qui utilise les ressources plus efficacement.
Tout ces possibilités assurent une redondance matérielle, un équilibrage de charges, une meilleur disponibilité, fléxibilité avec une gestion par logiciel. Pour travailler à distance le "SD-WAN" permet d'accéder à un portail centralisé permettant de bénéficier d'une sécurité accrue. Vous pouvez dans certains cas, relier plusieurs Cloud pour via un socket chiffré de bout en bout. Lorsqu'on parle de DaaS il s'agit toujours d'un environnement virtuel, l'accès s'effectue via un VPN sur un "client léger" ou un canal sécurisé qui permet d'accéder à votre espace de travail, comme çi vous y étiez.
Il semble que les solutions hybrides soient un bon compromis au regard du nombre d'entreprises qui conservent une salle serveurs avec leurs services et leurs composants réseau (routeur et commutateurs).
Cela nous permet d'entrevoir les enjeux futurs et les nouvelles approches du numérique, tant techniques que commerciales. Malgré l'indéniable disponibilité du Cloud avec ses services, l'externalisation des environnements et de leurs applications comportent des "enjeux" importants. Mais ces enjeux, sont "semble t'il", critiqués. D'une part, à cause de leurs dépendances en énergie, et d'autre part, à cause des coûts relatifs à leurs mise en oeuvre (PaaS, IaaS, SaaS). Ces coûts sont appliqués par les entreprises prestataires qui fournissent les services. Mais le calcul des coûts de location doivent être particulièrement suivis et vous devez vérifier l'utilisation des services souscrits, le temps d'utilisation, le nombre de VM fonctionnelles. Dans le Cloud, le traitement des données et le calcul sont en théorie facturés à l’usage.
Lire sur L'usine digitale: Bonnes pratiques pour optimiser vos coûts associés au cloud
Maitrise des vrais coûts du cloud public: Un enjeu important pour les entreprises
Consommation d’un data center :tout ce qu’il faut savoir pour limiter les dépense
Une entreprise qui souscrit un abonnement auprès d’Amazon (AWS), avec l'exemple de services qui stockent et gèrent vos données personnelles en SaaS ne paie "en principe" que les fonctionalités et la consommation réelle. Un engagement à nuancer... Si vous êtes en quête d'une solutions plus accéssible, vous aurez plutôt intérêt à privilégier les offres de "brokers" moins chers financièrement. L'analyse des coûts avec un Retour sur Investissement avantageux offre plus de souplesse sur une offre SaaS. La facturation des charges processeurs, les scripts avec les temps d'utilisation, ou les échanges de données réseau. Il est donc particulièrement utile de bien comprendre la manière dont sont facturés les servives Cloud.
Le Cloud va pourtant dans le sens de la disponibilité de la pérénité de vos données, c'est un sujet complet, au même titre que la facturation.
En simplifiant la gestion des infrastructures avec la virtualisation, les entreprises peuvent valoriser la disponibilité de leurs ressources, les applications et le stockage pour une meilleure maîtrise des des coûts et une plus grande réactivité. Le principe de l'infrastructure virtuelle repose sur la création de ressources moins dépendantes de l'infrastructure physique axés sur la disponibilitée. Les administrateurs peuvent allouer des ressources dynamiquement en fonction des projets les plus demandeurs en ressources. La gestion matérielle est désormais indépendante de celle logicielle et l'équipement matériel peut être traité comme un ensemble unique de ressources à affecter ou à réaffecter, sans changements ou interruptions pour les utilisateurs finaux.
LA VIRTUALISATION D'APPLICATION SERVER ET CLIENTS LEGERS
VMware vSphere et Citrix Virtual Apps
Lire Déployer Citrix sur Azure VMware
Scénario de migration du rôle Services Bureau à distance vers Azure Virtual Desktop
Lire : Mise en réseau logicielle (SDN) et virtualisation des fonctions réseau (NFV)
Lire: F5 exploite les API des clouds pour connecter les différents réseaux
Citrix Virtual App & Desktop 2009 avec vSphere 7
Déployer VDI avec Azure Virtual Desktop et RDS (IaaS ou PaaS)
Le stockage
Depuis les années 90, le prix du stockage a tellement baissé qu'aujourd’hui sur des disques durs traditionnels "mécaniques" SATA, (tout ce qui n'est pas SSD) se situe en fonction de la marque et surtout de la capacité, entre 2 et 5 cts d'euros le Go . C'est plus cher pour le SCSI plus utile aux entreprises pour le stockage rapide, mais cela met le prix d'un disque dur SATA de 18To à environ de 30€ le Tera. Soit pour un disque Western Digital de 18To, en 3,5 pouces, 6Gb/s de transfert ou bande passante d'interface, 512MB de mémoire EEPROM à 549,38€. Autre exemple pour un particulier, le disque HDD SCSI, SATA de plus petite capacité comme le Seagate Exos 7E8 en 3.5 pouces de 8To, avec une vitesse de rotation du plateau à 7200RPM (rotation minute), avec 6Gb/s (transfert ou bande passante d'interface) et 256Mb (mémoire EEPROM) à moins de 200€. En revanche le prix du Gigaoctet pour les disques SSD est passé de 1€ à presque la moitié, soit 0,55€ /Go. Malgré une hausse des prix qui s'annonce dans l'avenir pour les disques SSD, ce phénomène bénéficie surtout aux fournisseurs de services Cloud et à leurs offres promotionnelles de stockage. Car le Cloud a un coût et celui-çi se chiffre plus en terme de consommation d'énergie qu'en terme de prix du stockage. Lire sur 45secondes.fr
LA CONSOMMATION D'ENERGIE ET LE NUMERIQUE
Une étude de l'Union française de l'électricité (UFE), montrait que la consommation des Centres de Données s'élevait à environ 3TWh en 2015... Soit l'équivalent de la consommation électrique d'une ville comme Lyon. D'ici 2021, la capacité de stockage des centres de données devrait être multipliée par 4, selon une Étude de Cisco. Un centre de données "hyperscale" (plusieurs centaines de m² d'armoires avec baies rackées pour optimiser au maximum l'espace), passera de 338 fin 2016 à 628 en 2021 soit près du double en 6 ans. Mais cela correspond seulement à 53% du nombre total des centres de données. Nous sommes tous concernés par ce problème d'énergie qui va augmentant, même s'il reste difficile à concretiser pour le commun des mortels. Lire sur le site "fournisseur-energie.com", comment réduire la pollution numérique. Cela vous permettra de comprendre les enjeux et d'avoir une nouvelle approche du numérique, malgré l'indéniable disponibilité du Cloud avec ses services; "Software as a Service", "Platform as a Service", "Infrastructure as a Service", "Desktop as a Service" et avec l'externalisation des applications. Les Middleware et dans une moindre mesure la "déportation de l'affichage" du DaaS (Desktop as a Service) et du VDI (Virtual Desktop Interface), sont critiqués à cause de leurs dépendances en énergie et de leurs coûts fixes, car on associe trop souvent le Cloud à des engagements de baisse des coûts...
Des réponses aux besoins en constante évolution
Avec un suivi approfondi il est possible de limiter les incidents et d'approcher le "zéro interruption de services". Associés aux centres de données ou aux fermes de serveurs (datacenter), à la redondance, à l'équilibrage, il devient possible d'optimiser la disponibilitée, même pour les services les plus exposés. L'évolution des disques SCSI, SATA, SSD et des connexions de plus en plus rapides du type iSCSI, Giga ethernet, fibre, les instantanés éffectués à partir d'un système (à un instant "T") sont plus faciles à exécuter. Le processus d'équilibrage et la répartition des charges système et réseau devient plus souple. Comme la volumétrie du stockage. Les PRA (Plan de Reprise d'Activité) ne représentent plus un défi comme autrefois. Cependant, aucune structure n'est totalement à l'abri d'une défaillance serveur... A moins, de bénéficier d'une infrastructure entièrement virtualisée et de basculer d'une unité à une autre en un temps records, seule la répartition de charge des systèmes permet de rivaliser avec le nombre d'incidents liés aux dysfonctionnements système ou à la charge réseau. Les procédures de sauvegarde-restauration deviennent dans ces cas là plus qu'indispensables.
Le Cloud avec les évolutions des services; serveurs d'applications déportés, accès à distance sécurisés, ont permis de faciliter les tâches. Il devient possible dans la mesure ou la sécurité est respectée, de partager le travail à l'aide d'un serveur web Apache gratuit ou le serveur Web Microsoft IIS sur lesquels vous aurez implémenté un Groupware Microsoft SharePoint permettra de mettre à disposition aux utilisateurs une plateforme applicative (Middleware) avec Office 360 déportée sur un cloud via une connexion Internet spécifique via un VPN. Vous pourrez aussi travailler à distance sur une interface virtuelle, via un serveur déporté et le VDI (Virtual Desktop Interface) qui vous "enverra" via un profil itinérant votre bureau avec ses applications. Lorsque vous ouvrirez Word ou toutes autres applications, vous le ferez à partir VM sur un serveur virtuel distant et le résultat de vos modifications se feront directement sur le serveur qui "hébergera" votre interface virtuel.
GED dans le cloud :collaboration, signature électronique, sécurité, workflow, et gouvernance
GERER LES CONTENUS ET COLLABORER
Lire: L’Avenir de L'ITSM et la collaboration
Un autre enjeu: serveurs d'application
les serveurs vous proposent des applications qui fonctionnent comme du "streaming" de poste de travail sur des profiles itinérants.Cela représentait des investissements conséquents pour se connecter à un serveur centralisé afin d'accéder à des applications déportées pour le VDI (Virtual Desktop Interface). Avec la couche Hardware qui intègre maintenant des composants ou puces (AMD, INTEL, etc.) dédiées à la virtualisation, des logiciels de collaboration de contenus, de Virtual Desktop Interface se trouvent à portée de clic. Vous travaillez sur les serveurs de l'entreprises. Peu importe votre localisation, les applications sur lesquelles vous travaillez sont situés en réalité dans un datacenter.
Lire sur Microsoft les spécificités d'un profil itinérant ou roaming profil.
La virtualisation classique (hyperviseurs)
la consommation d'environ 5 serveurs en baie "standards" est d'environ 3.350 watts. La consommation est largement plus basse avec la virtualisation et le Vitrual desktop. La consommation électrique est étroitement liée au refroidissement et à la circulation de l’air. La virtualisation réduit le nombre d’alimentations, de processeurs (multi-coeurs) et de disques (le RAID est indispensable même s'il est plus toujours d'actualité). Tous ces éléments génèrent et dissipent une quantité significative de chaleur. En diminuant le nombre d’éléments dégageant de la chaleur, vous diminuez également la puissance nécessaire pour refroidir efficacement une salle serveurs. En effet, pour virtualiser un serveur, il faut compter 1 coeur processeur puissant par "machine virtuelle" avec entre 2 et 6 Go de mémoire vive...Pour un serveur peu gourmand en puissance et bande passante 1 coeur et 4 Go de SDRAM au minima par VM. Ce qui est bien différent pour un serveur proxy, par exemple, même si vous le doté d'une swap conséquente. Les éléments qui seront toujours privilégiés sont la puissance du(es) processeurs, le nombre de coeurs par processeur(s), et la RAM (mémoire vive).
Nouvelle génération de Wan avec Cisco Secure SD-WAN
Dans un contexte de tiraillement entre
La nécessité d’être innovant pour anticiper les besoins et déployer de
nouveaux services,
La nécessité d'assurer la conformité des systèmes et des applications,
La nécessité d'optimiser les
coûts pour assurer le meilleur Retour On Investissement (ROI ou Return Of Investment).
Améliorer la productivité
En optimisant les services de support, de gestion d'actifs (ITSM)
En fournissant un service de retour d'expérience et de qualité à l'aide d'un Groupware.
En sécurisant les réseaux (CLOUD, VLAN, VPN et SD-WAN, IDS et tests d'intrusion)
En assurant la mise en oeuvre de PRA ou "Plans de Retour d'Activité" pour serveurs physiques ou virtuels.
CONFINEMENT ET TELETRAVAIL
Alors que de plus en plus d'employés demandent l'opportunité d'effectuer une partie ou la totalité de leur travail à distance, les organisations ont de plus en plus besoin de directives clairement définies régissant les attentes et les responsabilités des employés et de l'entreprise. Cette politique décrit les processus de l'organisation pour demander, obtenir, utiliser et mettre fin à l'accès aux réseaux, systèmes et données de l'organisation afin de permettre aux membres du personnel de travailler régulièrement à distance sur une base formelle.
Introduction
La technologie actuelle permet aux entreprises d'offrir aux employés la possibilité de travailler à domicile, sur la route ou à peu près n'importe où en dehors du siège social. Cela peut profiter à la fois à l'employé et à l'entreprise de diverses manières. Mais comme de plus en plus d'employés demandent le télétravail, les entreprises doivent avoir une politique de télétravail viable.
Objectifs
Le but de cette politique est d'établir des lignes directrices pour les employés qui souhaitent participer au programme de télétravail de l'organisation.
Rémunération, heures de travail et admissibilité
La rémunération, les avantages sociaux, le statut de travail et les responsabilités professionnelles de l'employé ne changeront pas en raison de sa participation au programme de télétravail. Le temps que l'employé est censé travailler par jour et le temps ainsi que la méthode de paiement ne changera pas en raison de sa participation au programme. Les employés sont sélectionnés en fonction de la pertinence de leur emploi, d'une évaluation et probabilité qu'ils réussissent à travailler à distance avec l'approbation d'un superviseur. Chaque département prend ses propres décisions en matière de télétravail et pourra mesurer les résultats. Mais avant le télétravail, les employés doivent lire et signer un accord sur leur politique de télétravail. Le service informatique ne peut prendre en charge aucun télétravailleur qui n'a pas retourné un formulaire d'accusé de réception de politique de télétravail signé à la fois par l'employé et le responsable de l'employé.
Équipements
L'entreprise peut fournir des outils et de l'équipement aux employés pour qu'ils s'acquittent de leurs responsabilités professionnelles à distance. L'équipement peut inclure du matériel informatique, des smartphones, des tablettes, des logiciels de connexion privée comme un VPN d'entreprise, voir une clé USB d'authentification aléatoire, une boite pour courriels sécurisée avec certificat, une connectivité aux applications hôtes, un portail d'échange avec le support et d'autres ressources applicables jugées nécessaires. L'utilisation de ces ressources, fournies par l'entreprise pour une utilisation distante, doit resté limitée aux personnes autorisées et pour l'entreprise uniquement. Selon la nature du travail, les employés du télétravail peuvent utiliser leur propre équipement mais avec une connexion dédiée et mise en oeuvre par l'entreprise (RDP et VPN). Les employés sont responsables de l'installation, de la réparation et de l'entretien de tout l'équipement personnel utilisé pour le télétravail mais ils doivent également comprendre et accepter que l'entreprise puisse accéder à des fins professionnelles à tout équipement personnel utilisé pour le télétravail.
Lorsque vous êtes connectés à Chrome, ne vous laissez pas tenter en enregistrant vos mots de passe Google sur des sites marchands (informations d'authentification). Evitez de croiser les authentifications comme par exemple utiliser l'indentifiant et le mot de passe de Google pour vous connecter à Facebook, Amazon, Ebay, Cdiscount, etc. Heetch demande quand lui à être relié à votre compte Facebook, voir votre banque.... Sur un smartphone avec un compte gmail tous vos mots de passe et contacts seront sauvegardés sur le cloud de Google, "Drive". Avec d'autres fournisseurs vous risquez d'être sollicité par de nombreux appels téléphonique pour vous faire la démonstration que sur certains produits vous pourrez bénéficier d'avantages subtantiels et faire des économies.
Si vous voulez savoir d'ou viennent ces numéros, voir leurs capacités de nuisances, un site peut être utile: numeroinconnu.fr
Lire sur les sujets:
Tarification SD-WAN, analyse des coûts, liste de prix et retour sur investissement (ROI)
Numérique et écologie : les datacenters sont-ils des gouffres énergétiques ?
Lire "les enjeux technologiques de l'information et de la communication"
Capacité d'optimisation d'infrastructure: processus de gestion ITIL/COBIT
Centre de services et résolution des incidents sur site (ITSM)
Virtualisation d'infrastructure de postes de travail (VDI); enjeux des DSI
VERIFICATION DE LA SECURITE
Tout le monde n'a pas forcément les compétences pour trouver les éventuelles failles de son site CMS, GED, CRM, Groupware, ni comment savoir les combler. Il existe pourtant des services en ligne pour cela. (Vérifier la sécurité de votre site de manière automatique ou non, basé sur un contrat)
La plupart des outils pour tenter de s'introduire sur les Systèmes d'exploitation et Interfaces hébergées sont libres ou Open source, alors que très peu de "solutions logicielles de recherche de vulnérabilités" sont gratuites. Si vous avez les compétences, utilisez les outils disponibles sur les sites d'analyses ou téléchargez les logiciels pour auditer votre sécurité avec les incontournables solutions "Libre et Open source". Cependant, si vous êtes hébergés sur un serveur virtuel Linux, les accès sont ségmentés. Même si vous n'avez pas d'accès au root, des outils internes faciles à utiliser vous permettent de vérifier la sécurité de la configuration de votre portail hébergé avec les applications installées.
- Voir sur le page de téléchargement des logiciels à télécharger
- 10-outils-en-ligne-pour-tester-la-securite-de-votre-site
- Pour auditer les CMS Drupal, Joomla et WordPress.
- Pour vérifier les ports utilisés par votre serveur.
- Pour vérifier les éventuelles failles et vulnérabilitées de vos services.
- Pour éviter les injections SQL, les DDOS DNS...
- Pour vérifier les autorisations des scripts.
- Pour déterminer les versions de vos logiciels.(Fingerprint)
- Pour obtenir les infos, frameworks, serveurs, authentification, géolocalisation…
Ne nombreux logiciels d'audits de sécurité sont en versions payantes:
HackerTarget nécessite une inscription si vous désirez l'utiliser régulièrement, juste une adresse e-mail valide sur laquelle vous recevrez vos rapports de scan. Evidemment, rien ne vous interdit de scanner des serveurs qui ne vous appartiennent pas, en France ce n’est pas légal. Donc soyez prudent et scannez plutôt les serveurs web de votre organisation !
Detectify propose après inscription, de réaliser un scan complet de votre site pour y trouver d'éventuels exploits, défauts de sécurisation et autres fichiers douteux ou "trop bavards". Cependant, n'espérez pas vous servir de Detectify pour partir à la recherche de failles de sécurité chez les autres. Un système de vérification permet de scanner uniquement votre propre site et le service est payant.
L'idéal étant de pouvoir faire appel à un professionel avec de bonnes connaissances des failles et de la détection d'intrusion, scan de ports,réseau, de la segmentation, des pare-feux frontaux ou de périmètres, VLAN's, règles de filtrage multi-niveaux, ainsi que des failles de sécurité, attaques Man In The Middle, SQL injection, pour services Web dynamiques. Un antivirus centralisé et proactif pour les clients, dotés d'un agent et de signatures virales à jour est indispensable pour la messagerie électronique (thunderbird, Outlook) et la navigation internet sécurisé est devenue indispensable tout comme les mesures de surveillance.
HEBERGER VOTRE SITE WEB AVEC DYNDNS
Maintenant comme pour beaucoup de Services déportés sur le cloud, il faudra payer pour DynDNS.
Lire: comment vous pouvez installer "l'émulation" WAMP sur Windows pour l'utiliser avec DynDns
DynDNS proposait depuis plus de 15 ans, un service gratuit permettant de mapper une adresse IP (même dynamique) avec un sous domaine dyndns.com. Mais c'est terminé !
Les raisons officielles de cet arrêt de DNS sont un grand nombre d'abus par les utilisateurs de la version gratuite qui commençait à avoir des répercussions sur les utilisateurs payants, mais aussi un besoin d'économie et de rentabilité afin d'investir pour les utilisateurs payants. Chacun aura le droit à un bon de réduction pour basculer sur la version payante à 25 $ par an. Ce n’est pas cher et si vous en avez vraiment l'utilité, je pense que vous ne devriez même pas hésiter et opter pour la version pro. Maintenant si vraiment vous êtes fâché, et que vous cherchez une solution de DNS dynamique gratuit, voici quelques alternatives.
No IP - C'est une référence après DynDNS.
DtDNS
Dynamic DNS
Free DNS
DuckDNS
DyNS
Certains fournissent des logiciels pour faire l'update. D'autres des scripts et enfin d'autres mettent juste à disposition leur API (Application programing interface). Ils se valent, plus ou moins, donc à vous de voir celui qui vous convient le mieux en remplacement de DynDNS. Par contre, si votre routeur ne propose que DynDNS en option, le passage vers la version payante du service sera obligatoire, à moins de bidouiller le logiciel en ligne de commande et d'y faire tourner vos scripts. Sachez que si vous avez un routeur Dlink, vous avez un DynDNS offert. Même chose si vous utilisez un serveur Synology, la société propose du mapping DNS dynamique. Notez aussi que si vous achetez un domaine chez Gandi, avec leurs API et un peu de code, il est possible de faire des MAJ de zone DNS en live. Même chose chez OVH. Cloudflare permet aussi de faire du DDNS.
Lire cet article "Les multi-nationales à l'assaut de la vie privée" écrit en 2001 par Marc Laimé
Comment sélectionner un fournisseur de tests d’intrusion"
Lire données collectées par l’agent de télémétrie d'Office.
Lire ce résumé sur les revenus générés par la publicité pour les sites connus.
Lire "Windows 10 et les secrets de la télémétrie"sur ZDnet.fr
Lire l'article de Michel Bauwens à propos du P2P sur Wedemain.fr
La neutralité du Net sur La quadrature du net.
Pouvez-vous faire confiance à votre ordinateur personnel ? publié en 2002 par R Stallman.
Tiré du site Uzine.net "les multinationales à l'assaut de la vie privée
OpenDNS détecte les DNS malveillants avec le langage naturel
Contact :1foplus(at)techalliance (dot) fr
: 0975858504
:
33753514880
![]() |
||||||||||||||||||||||
:. Assistance informatique en ligne et dépannage à domicile du lun au sam de 9 à 19h .: Tél: [33975858504-33753514880] |
||||||||||||||||||||||
![]() |
||||||||||||||||||||||
|
||||||||||||||||||||||
![]() |
||||||||||||||||||||||
|
&
Contact :
|
|||||||||||||||||||||
2011-2022@1fop+ creative commons [C.Platon] |
||||||||||||||||||||||
![]() |