logo

Confidentialité, intégrité et disponibilité – Application dans le monde réel

La sécurité de l’information s’articule autour de trois principes clés : la confidentialité, l’intégrité et la disponibilité. Selon l’environnement, l’application, le contexte ou le cas d’utilisation, l’un de ces principes peut prévaloir sur les autres. Pour un organisme financier, par exemple, la confidentialité des informations est primordiale.Tout document classifié transféré par voie électronique doit donc être chiffré afin d’empêcher des personnes non autorisées d’en lire le contenu. À l’inverse, des sites marchands sur Internet souffriraient gravement si leur réseau était hors service pendant une période prolongée. Ils doivent donc se concentrer sur des stratégies visant à garantir une haute disponibilité plutôt que sur le chiffrement des données.


 

Confidentialité

La confidentialité vise à empêcher tout accès non autorisé à des informations sensibles. De tels accès peuvent être intentionnels, par exemple un intrus pénétrant dans le réseau et lisant des informations, ou non intentionnels, du fait de la négligence ou de l’incompétence des personnes qui manipulent les informations. Les deux principaux moyens de garantir la confidentialité sont le chiffrement et le contrôle d’accès.

Chiffrement

Le chiffrement permet aux organisations de protéger les informations contre les divulgations accidentelles et les tentatives d’attaques internes et externes. L’efficacité d’un système de chiffrement à empêcher tout déchiffrement non autorisé est appelée sa force. Un système de chiffrement fort est difficile à pirater. La force s’exprime également sous forme de facteur travail, c’est-à-dire une estimation du temps et des efforts nécessaires pour casser un système.

Un système est considéré comme faible s’il autorise des clés faibles, présente des défauts dans sa conception ou est facilement déchiffré. De nombreux systèmes proposés aujourd’hui conviennent parfaitement à un usage professionnel et personnel, mais ils sont inadaptés aux applications militaires ou gouvernementales sensibles. Le chiffrement comprend des algorithmes symétriques et asymétriques.

Algorithmes symétriques

Les algorithmes symétriques exigent de la part de l’expéditeur et du destinataire d’un message chiffré qu’ils aient la même clé et les mêmes algorithmes de traitement. Les algorithmes symétriques génèrent une clé symétrique (parfois appelée clé secrète ou clé privée) qui doit être protégée ; si la clé est perdue ou volée, la sécurité du système est compromise. Voici quelques-unes des normes courantes en matière d’algorithmes symétriques :

  • Data Encryption Standard (DES). DES est utilisé depuis le milieu des années 1970. Pendant des années, elle a été la principale norme utilisée par les gouvernements et l’industrie, mais elle est désormais considérée comme peu sûre en raison de la petite taille de sa clé (elle génère une clé de 64 bits, mais huit de ces bits servent uniquement à la correction des erreurs et seulement 56 bits constituent la clé réelle). Aujourd’hui, la norme de référence est AES.
  • Triple-DES (3DES). 3DES est une mise à niveau technologique de DES. 3DES est toujours utilisée, même si AES est préférée pour les applications gouvernementales américaines. 3DES est considérablement plus difficile à casser que de nombreux autres systèmes, et il est plus sûr que DES. La longueur de la clé est portée à 168 bits (avec trois clés DES de 56 bits).
  • Advanced Encryption Standard (AES). Les agences gouvernementales américaines utilisent désormais la norme AES en remplacement de la norme DES. AES utilise l’algorithme Rijndael, nommé d’après ses développeurs, Joan Daemen et Vincent Rijmen. AES prend en charge les tailles de clé de 128, 192 et 256 bits, la valeur par défaut étant 128 bits.
  • RC (Ron’s Cipher ou Ron’s Code). RC est une famille de chiffrement développée par les laboratoires de la RSA et nommée d’après son auteur, Ron Rivest. Les niveaux actuels sont RC4, RC5 et RC6. RC5 utilise une taille de clé allant jusqu’à 2048 bits ; il est considéré comme un système fort. RC4 est très utilisé pour le chiffrement sans fil et WEP/WPA. Il s’agit d’un chiffrement en continu qui fonctionne avec des tailles de clé comprises entre 40 et 2048 bits, et il est utilisé pour le SSL et le TLS. Il est également prisé de certains utilitaires, qui l’utilisent pour télécharger des fichiers torrents. De nombreux fournisseurs limitent le téléchargement de ces fichiers, mais l’utilisation de RC4 pour brouiller l’en-tête et le flux fait qu’il est plus difficile pour le fournisseur de services de se rendre compte que les fichiers déplacés sont de type torrent.
  • Blowfish et Twofish. Blowfish est un algorithme de chiffrement inventé par une équipe dirigée par Bruce Schneier. Il effectue un chiffrement par blocs de 64 bits à des vitesses très rapides. Ce système de chiffrement symétrique par blocs peut utiliser des clés de longueur variable (de 32 bits à 448 bits). Twofish est assez similaire, mais il fonctionne avec des blocs de 128 bits. Sa particularité est la préparation complexe des clés.
  • International Data Encryption Algorithm (IDEA). Développé par un consortium suisse, IDEA utilise une clé de 128 bits. Ce produit est semblable au DES en termes de vitesse et de capacité, mais il est plus sûr. IDEA est utilisé par PGP (Pretty Good Privacy), un système de chiffrement du domaine public que beaucoup de gens utilisent pour le courrier électronique.
  • Masques jetables. Les masques jetables sont les seuls systèmes de chiffrement véritablement sûrs. Ils le sont pour deux raisons. Premièrement, ils utilisent une clé aussi longue qu’un message textuel. Cela signifie que l’application des clés ne contient aucun motif qu’un agresseur pourrait utiliser. Deuxièmement, les clés des masques jetables ne servent qu’une fois et sont ensuite abandonnées. Même si vous pouviez déchiffrer un code, cette clé ne serait plus jamais utilisée, il serait donc inutile de la connaître.

Algorithmes asymétriques

Les algorithmes asymétriques utilisent deux clés : une clé publique et une clé privée. L’expéditeur utilise la clé publique pour chiffrer un message, et le destinataire utilise la clé privée pour le déchiffrer. La clé publique peut être effectivement publique ou être un secret entre les deux parties. La clé privée, elle, reste privée ; seul le propriétaire (le destinataire) la connaît. Si quelqu’un veut vous envoyer un message chiffré, il peut utiliser votre clé publique pour chiffrer le message et vous l’envoyer ensuite. Vous pouvez utiliser votre clé privée pour déchiffrer le message. Si les deux clés tombent entre les mains d’une tierce partie, le système de chiffrement ne protège pas la confidentialité du message. La force de ces systèmes est que la clé publique ne peut pas être utilisée pour déchiffrer un message. Si Bob envoie à Alice un message chiffré avec la clé publique d’Alice, il importe peu que tous les gens sur Terre possèdent la clé publique d’Alice, puisque cette clé ne peut pas déchiffrer le message. Voici quelques-unes des normes courantes en matière d’algorithmes asymétriques :

  • RSA. RSA est nommé d’après ses inventeurs, Ron Rivest, Adi Shamir et Leonard Adleman. L’algorithme RSA est un des premiers systèmes de chiffrement à clé publique qui se base sur de grands nombres entiers. Il est largement répandu et est devenu une norme de facto. RSA fonctionne à la fois avec le chiffrement et les signatures numériques. RSA est utilisé dans de nombreux environnements, y compris le protocole SSL (Secure Sockets Layer), il peut également être utilisé pour l’échange de clés.
  • Diffie-Hellman. Whitfield Diffie et Martin Hellman sont considérés comme les inventeurs du concept de clé publique/clé privée. Leur algorithme Diffie-Hellman sert principalement à générer une clé secrète partagée sur les réseaux publics. Il ne sert pas à chiffrer ou déchiffrer les messages, mais simplement à créer une clé symétrique entre deux parties.
  • ECC (Elliptic Curve Cryptography). ECC offre des fonctionnalités similaires à celles de RSA, mais utilise des clés de taille inférieure pour obtenir un même niveau de sécurité. Les systèmes de chiffrement ECC reposent sur l’utilisation de points sur une courbe combinés avec un point à l’infini et sur la difficulté de résoudre des problèmes de logarithmes discrets.

Contrôle d’accès

Le chiffrement est un moyen de garantir la confidentialité, le contrôle d’accès en est un autre. Plusieurs approches du contrôle d’accès permettent d’assurer la confidentialité, chacune ayant ses propres forces et faiblesses :

  • Mandatory access control (MAC, Contrôle d’accès obligatoire). Dans un environnement MAC, toutes les capacités d’accès sont prédéfinies. Les utilisateurs ne peuvent pas partager d’informations, à moins que des administrateurs ne leur octroient ces droits. Les administrateurs doivent donc modifier ces droits en conséquence. Ce processus impose un modèle de sécurité rigide. Cependant, il est également considéré comme le modèle de cybersécurité le plus sûr.
  • Discretionary Access Control (DAC, Contrôle d’accès facultatif). Dans un modèle DAC, les utilisateurs peuvent partager des informations de manière dynamique avec d’autres utilisateurs. Cette méthode offre un environnement plus flexible, mais elle augmente le risque de divulgation non autorisée d’informations. Les administrateurs ont plus de mal à faire en sorte que seuls les utilisateurs appropriés puissent accéder aux données.
  • Role-Based Access Control (RBAC). Le contrôle d’accès basé sur les rôles instaure un contrôle d’accès basé sur la fonction ou la responsabilité des postes. Chaque employé a un ou plusieurs rôles qui lui permettent d’accéder à des informations spécifiques. Si une personne change de rôle, elle perd l’accès au rôle précédent. Les modèles RBAC offrent plus de flexibilité que le modèle MAC et moins que le modèle DAC. Ils présentent toutefois l’avantage de se fonder strictement sur la fonction du poste, et non sur les besoins individuels.
  • Rule-Based Access Control (RBAC). Le contrôle d’accès basé sur des règles utilise les paramètres des stratégies de sécurité préconfigurées pour prendre des décisions relatives à l’accès. Ces règles peuvent être définies de manière à :
    • Refuser l’accès à tous sauf à ceux qui figurent spécifiquement dans une liste (une liste d’accès autorisé)
    • Ne refuser l’accès qu’à ceux qui figurent spécifiquement dans un liste (une liste d’accès refusé)

Les entrées de la liste peuvent être des noms d’utilisateurs, des adresses IP, des noms d’hôtes ou même des domaines. Les modèles basés sur des règles sont souvent utilisés conjointement avec des modèles basés sur les rôles pour obtenir la meilleure combinaison possible de sécurité et de flexibilité.

  • Attribute-based access control (ABAC). Le contrôle d’accès basé sur les attributs est une méthode relativement nouvelle de contrôle d’accès définie dans le document NIST 800-162, Attribute Based Control Definition and Considerations. Il s’agit d’une méthodologie de contrôle d’accès logique dans laquelle l’autorisation d’effectuer un ensemble d’opérations est déterminée en évaluant les attributs associés au sujet, à l’objet, aux opérations demandées et, dans certains cas, aux conditions environnementales au regard de la politique de sécurité, des règles ou des relations qui décrivent les opérations autorisées pour un ensemble d’attributs donné.
  • Des cartes à puce sont généralement utilisées aux fins de contrôle d’accès et de sécurité. Ces cartes contiennent généralement une petite quantité de mémoire qui peut être utilisée pour stocker les autorisations et les informations d’accès.
  • Un jeton de sécurité était à l’origine un dispositif matériel permettant d’obtenir un accès, par exemple une keycard ou un porte-clés. Il existe désormais également des implémentations logicielles des jetons. Les jetons contiennent souvent un certificat numérique qui sert à authentifier l’utilisateur.

Intégrité

L’intégrité comprend trois objectifs qui contribuent à la sécurité des données :

  • Empêcher la modification des informations par des utilisateurs non autorisés
  • Empêcher la modification non autorisée ou involontaire des informations par des utilisateurs autorisés
  • Préserver une cohérence interne et externe :
    • Cohérence interne – Elle garantit que les données sont cohérentes sur le plan interne. Par exemple, dans une base de données organisationnelle, le nombre total d’éléments détenus par une organisation doit être égal à la somme de ces éléments mentionnés dans la base de données comme étant détenus par chaque élément de l’organisation.
    • Cohérence externe – Elle garantit que les données stockées dans la base de données sont cohérentes avec le monde réel. Par exemple, le nombre total d’articles en rayon doit correspondre au nombre total d’articles dans la base de données.

Diverses méthodes de chiffrement peuvent contribuer à assurer l’intégrité en confirmant qu’un message n’a pas été modifié pendant sa transmission. Une modification peut rendre un message inintelligible ou, pire encore, inexact. Imaginez les graves conséquences que pourraient avoir des modifications non découvertes apportées à des dossiers médicaux ou à des prescriptions de médicaments. Si un message est altéré, le système de chiffrement doit comporter un mécanisme indiquant que le message a été corrompu ou modifié.

Hachage

L’intégrité peut également être vérifiée à l’aide d’un algorithme de hachage. Il s’agit en fait d’un hachage du message qui est généré et ajouté à la fin de celui-ci. Le destinataire calcule le hachage du message qu’il vient de recevoir et le compare au hachage reçu. Si quelque chose a été modifié au cours du transport, les deux hachages ne correspondent pas.

Le hachage est un contrôle d’intégrité acceptable dans de nombreuses situations. Mais si quelqu’un intercepte le message et le modifie intentionnellement, et si le message n’est pas chiffré, le hachage est inefficace. Un intercepteur peut voir, par exemple, qu’il y a un hachage de 160 bits attaché au message, ce qui suggère qu’il a été généré en utilisant le SHA-1 (abordé ci-dessous). Cet intercepteur peut alors modifier le message comme il le souhaite, supprimer le hachage SHA-1 original et recalculer un hachage à partir du message modifié.

Algorithme de hachage

Les hachages utilisés pour stocker des données sont très différents des hachages de chiffrement. En matière de chiffrement, une fonction de hachage doit présenter trois caractéristiques :

  1. Elle doit être à sens unique. Une fois que vous avez haché quelque chose, vous ne pouvez pas le déhacher.
  2. Une entrée de longueur variable produit une sortie de longueur fixe. Que vous hachiez deux caractères ou deux millions, la taille du hachage reste la même.
  3. L’algorithme ne doit présenter que peu ou pas de collisions. Le hachage de deux entrées différentes ne donne pas le même résultat.

Voici les algorithmes de hachage et les concepts connexes que vous devez connaître :

  • Secure Hash Algorithm (SHA). Appelé Keccak au départ, SHA a été conçu par Guido Bertoni, Joan Daemen, Michaël Peeters et Gilles Van Assche. SHA-1 est un hachage unidirectionnel qui fournit une valeur de hachage de 160 bits pouvant être utilisée avec un protocole de chiffrement. En 2016, des problèmes concernant SHA-1 ont été découverts ; il est à présent recommandé d’utiliser SHA-2. SHA-2 peut produire des hachages de 224, 256, 334 et 512 bits. SHA-2 ne présente aucun problème connu, il reste à ce jour l’algorithme de hachage le plus largement utilisé et recommandé. SHA-3, lancé en 2012, est largement applicable, mais il est peu utilisé. Cela n’est pas dû à des problèmes relatifs au SHA-3, mais plutôt au fait que le SHA-2 fonctionne parfaitement.
  • Message Digest (MD). MD est un autre hachage à sens unique qui crée une valeur de hachage destinée à maintenir l’intégrité. Il existe plusieurs versions de MD ; les plus courantes sont MD5, MD4 et MD2. MD5 est la version la plus récente de cet algorithme, elle produit un hachage de 128 bits. Bien que plus complexe que ses prédécesseurs, elle offre une plus grande sécurité, mais ne présente pas une forte résistance aux collisions, son utilisation n’est donc plus recommandée. Les alternatives recommandées sont SHA2 et SHA3.
  • RACE Integrity Primitives Evaluation Message Digest (RIPEMD). RIPEMD est basé sur MD4. Il a rencontré des problèmes de sécurité et a donc été remplacé par RIPEMD-160, qui utilise 160 bits. Il existe également des versions qui utilisent 256 et 320 bits (RIPEMD-256 et RIPEMD-320, respectivement).
  • GOST est un algorithme de chiffrement symétrique développé dans l’ancienne Union soviétique, qui a été modifié de manière à fonctionner comme une fonction de hachage. GOST convertit un message de longueur variable en une sortie de longueur fixe de 256 bits.
  • Avant la sortie de Windows NT, les systèmes d’exploitation Microsoft utilisaient le protocole LANMAN pour l’authentification. Fonctionnant uniquement comme un protocole d’authentification, LANMAN utilisait LM Hash et deux clés DES. Il a été remplacé par NT LAN Manager (NTLM) lors de la sortie de Windows NT.
  • Microsoft a remplacé le protocole LANMAN par NTLM (NT LAN Manager) lors du lancement de Windows NT. NTLM utilise les algorithmes de hachage MD4/MD5. Plusieurs versions de ce protocole existent (NTLMv1 et NTLMv2), et il est toujours largement utilisé malgré le fait que Microsoft ait désigné Kerberos comme protocole d’authentification préféré. Bien que LANMAN et NTLM emploient tous deux le hachage, ils servent principalement à des fins d’authentification.
  • Pour vérifier l’intégrité, une méthode courante consiste à ajouter au message un code d’authentification (MAC). Le MAC est calculé à l’aide d’un chiffrement symétrique par chaînage de blocs (CBC), seul le bloc final étant produit. Globalement, le résultat du CBC est utilisé comme le résultat d’un algorithme de hachage. Cependant, à la différence d’un algorithme de hachage, ce chiffrement nécessite une clé symétrique qui est échangée à l’avance entre les deux parties.
  • HMAC (hash-based message authentication code) utilise un algorithme de hachage et une clé symétrique. Les deux parties conviennent par exemple d’utiliser un hachage MD5. Une fois le hachage calculé, il lui est appliqué un OU exclusif (XOR) avec le condensé, et la valeur résultante est le HMAC.

Référence

L’établissement d’une référence (référence de configuration, référence de systèmes, référence d’activité) est une stratégie importante pour une mise en réseau sécurisée. Il s’agit de trouver une référence que vous considérez comme sûre pour un système, un ordinateur, une application ou un service donné. Une sécurité absolue est certainement irréalisable ; l’objectif est une sécurité suffisante, en fonction des besoins de sécurité de votre organisation et de sa tolérance au risque. Toute modification peut être comparée à la référence pour voir si elle est suffisamment sûre. Une fois la référence définie, l’étape suivante consiste à surveiller le système pour s’assurer qu’il ne s’en écarte pas. Ce processus est défini comme une mesure d’intégrité.

Disponibilité

La disponibilité garantit que les utilisateurs autorisés d’un système ont un accès rapide et ininterrompu aux informations contenues dans ce système, ainsi qu’au réseau. Voici les méthodes qui permettent cette disponibilité :

  • Répartition équitable. Communément appelée équilibrage des charges, la répartition équitable permet de distribuer la charge (demandes de fichiers, acheminement des données, etc.) de manière à ce qu’aucun appareil ne soit trop sollicité.
  • Haute disponibilité. La haute disponibilité se rapporte aux mesures utilisées pour maintenir opérationnels les services et les systèmes d’information pendant une panne. L’objectif de la haute disponibilité est souvent que les services clés soient disponibles 99,999 % du temps (disponibilité « cinq neufs »). Les stratégies de haute disponibilité comprennent la redondance et le basculement, qui sont abordés ci-dessous.
  • Redondance. La redondance fait référence aux systèmes qui sont soit dupliqués, soit basculés vers d’autres systèmes en cas de dysfonctionnement. On appelle « basculement » le processus de reconstruction d’un système ou de passage à d’autres systèmes lorsqu’une défaillance est détectée. Dans le cas d’un serveur, lorsqu’une défaillance est détectée, le serveur bascule vers un serveur redondant. Cette stratégie permet de maintenir la continuité du service jusqu’à ce que le serveur principal soit restauré. Dans le cas d’un réseau, cela signifie qu’en cas de défaillance sur le chemin principal, le traitement passe à un autre chemin de réseau.
    Les systèmes de basculement peuvent être chers à mettre en œuvre. Dans un grand réseau d’entreprise ou un environnement d’e-commerce, un basculement peut nécessiter de transférer tous les traitements vers un site distant jusqu’à ce que l’installation principale redevienne opérationnelle. Le site principal et le site distant doivent synchroniser leurs données afin de garantir que les informations sont aussi à jour que possible.
    De nombreux systèmes d’exploitation, par exemple Linux, Windows Server et Novell Open Enterprise Server, sont capables de se regrouper en clusters pour offrir des capacités de basculement. Le clustering implique de multiples systèmes connectés de manière coopérative (ce qui permet d’équilibrer la charge) et mis en réseau de telle sorte que si l’un des systèmes tombe en panne, les autres systèmes prennent le relais et continuent à fonctionner. La capacité globale du cluster de serveurs peut diminuer, mais le réseau ou le service reste opérationnel. Pour apprécier l’intérêt du clustering, sachez que c’est la technologie sur laquelle s’appuie Google. Non seulement le clustering offre une redondance, mais il permet également de s’adapter à l’augmentation de la demande.
    La plupart des FAI et des fournisseurs de réseaux disposent d’une capacité de basculement interne étendue permettant d’offrir une haute disponibilité aux clients. Les clients professionnels et les employés qui ne peuvent pas accéder aux informations ou aux services ont tendance à perdre confiance.
    La contrepartie de la fiabilité et de la confiance, c’est bien sûr le coût : Les systèmes de basculement peuvent coûter excessivement cher. Il vous faudra étudier attentivement vos besoins pour déterminer si votre système nécessite cette capacité. Si, par exemple, votre environnement exige un niveau de disponibilité élevé, vos serveurs doivent être regroupés en clusters. Cela permettra aux autres serveurs du réseau de supporter la charge si l’un des serveurs du cluster tombe en panne.
  • Tolérance aux pannes. La tolérance aux pannes est la capacité d’un système à rester opérationnel en cas de défaillance d’un composant. Les systèmes tolérants aux pannes peuvent continuer à fonctionner même si un composant critique, par exemple un lecteur de disque, tombe en panne. Cette capacité implique une suringénierie des systèmes par ajout de composants et de sous-systèmes redondants visant à réduire les risques d’interruption. Par exemple, la tolérance aux pannes peut être intégrée à un serveur via l’ajout d’une seconde alimentation, d’un second processeur et d’autres composants clés. La plupart des fabricants (notamment HP, Sun et IBM) proposent des serveurs à tolérance aux pannes ; ceux-ci sont généralement équipés de plusieurs processeurs qui basculent automatiquement en cas de dysfonctionnement.
    Deux aspects essentiels de la tolérance aux pannes ne doivent jamais être négligés : les pièces de rechange et l’alimentation électrique. Vous devez toujours disposer de pièces de rechange permettant de réparer tout composant critique du système en cas de défaillance. La stratégie de redondance « N+1 » signifie que vous disposez du nombre de composants dont vous avez besoin, plus un à brancher sur n’importe quel système en cas de besoin. Puisque les systèmes informatiques ne peuvent pas fonctionner sans électricité, il est impératif que la tolérance aux pannes soit également intégrée dans votre infrastructure électrique. Au strict minimum, chaque serveur et chaque poste de travail doivent disposer d’une alimentation sans coupure. Cette alimentation sans coupure doit être adaptée à la charge qu’elle est censée supporter en cas de panne électrique (en prenant en compte l’ordinateur, l’écran et tout autre appareil qui y est connecté) et être vérifiée périodiquement dans le cadre de votre programme de maintenance préventive afin de s’assurer que la batterie est opérationnelle. Pour que l’alimentation sans coupure reste opérationnelle, vous devez remplacer la batterie tous les deux ans.
    Une telle alimentation vous permet de continuer à fonctionner en l’absence de courant pendant une courte durée seulement. Pour une tolérance aux pannes de longue durée, il vous faudra un générateur de secours. Les générateurs de secours fonctionnent à l’essence, au propane, au gaz naturel ou au diesel et produisent l’électricité requise pour assurer une alimentation constante. Si certains générateurs de secours peuvent démarrer instantanément en cas de panne de courant, la plupart mettent peu de temps à se réchauffer avant de pouvoir fournir une puissance constante. Pour cette raison, il vous faut quand même des alimentations sans coupure.
  • RAID (Redundant Array of Independent Disks). La technologie RAID utilise plusieurs disques pour assurer la tolérance aux pannes. Le RAID comporte plusieurs niveaux : RAID 0 (disques à bandes), RAID 1 (disques en miroir), RAID 3 ou 4 (disques à bandes avec parité dédiée), RAID 5 (disques à bandes avec parité distribuée), RAID 6 (disques à bandes avec double parité), RAID 1+0 (ou 10) et RAID 0+1. Apprenez-en plus à leur sujet dans cette liste des bonnes pratiques en matière de sécurité des données (en anglais).
  • Plan de reprise après sinistre. Un plan de reprise après sinistre permet à une organisation de réagir efficacement lorsqu’une catastrophe se produit. Les catastrophes peuvent être des défaillances de systèmes, des pannes de réseaux, des défaillances d’infrastructures et des catastrophes naturelles comme les ouragans et les tremblements de terre. Un plan de reprise après sinistre définit les méthodes permettant de rétablir les services le plus rapidement possible et de protéger l’organisation contre des pertes inacceptables en cas de catastrophe.
    Dans une petite organisation, un plan de reprise après sinistre peut être relativement simple. Dans une organisation plus grande, il peut impliquer plusieurs sites, des plans stratégiques et des services entiers.
    Un plan de reprise après sinistre doit prendre en compte l’accès aux informations et leur stockage. Votre plan de sauvegarde des données sensibles fait partie intégrante de ce processus.

Foire aux questions

Trois principes fondamentaux : confidentialité, intégrité et disponibilité

  • Confidentialité : Les systèmes et les données ne sont accessibles qu’aux utilisateurs autorisés.
  • Intégrité : Les systèmes et les données sont fiables et complets.
  • Disponibilité : Les systèmes et les données sont accessibles quand on en a besoin.

En quoi les trois principes fondamentaux sont-ils importants pour la sécurité des données ?

L’objectif ultime en matière de sécurité des données est de garantir la confidentialité, l’intégrité et la disponibilité des données critiques et sensibles. L’application des trois principes fondamentaux permet aux organisations de créer un programme de sécurité efficace pour protéger leurs précieuses ressources.

Comment appliquer les trois principes fondamentaux à la gestion des risques ?

Lors des évaluations des risques, les organisations mesurent les risques, les menaces et les vulnérabilités qui peuvent compromettre la confidentialité, l’intégrité et la disponibilité de leurs systèmes et de leurs données. En mettant en place des contrôles de sécurité pour atténuer ces risques, elles satisfont à un ou plusieurs des trois principes fondamentaux.

Comment la confidentialité des données peut-elle être compromise ?

La confidentialité nécessite d’empêcher tout accès non autorisé à des informations sensibles. De tels accès peuvent être intentionnels, par exemple un intrus pénétrant dans le réseau et lisant des informations, ou non intentionnels, du fait de la négligence ou de l’incompétence des personnes qui manipulent les informations.

Quelles mesures peuvent contribuer à préserver la confidentialité des données ?

Une bonne pratique de protection de la confidentialité des données consiste à chiffrer toutes les données sensibles et réglementées. Personne ne peut lire le contenu d’un document chiffré sans disposer de la clé de déchiffrement. Le chiffrement protège donc contre les préjudices malveillants et accidentels de la confidentialité.

Comment l’intégrité des données peut-elle être compromise ?

L’intégrité des données peut être compromise aussi bien par des erreurs humaines que par des cyberattaques, par exemple des logiciels malveillants ou des rançongiciels.

Quelles mesures peuvent contribuer à préserver l’intégrité des données ?

Pour préserver l’intégrité des données, vous devez :

  • Empêcher toute modification des données par des utilisateurs non autorisés
  • Empêcher toute modification non autorisée ou involontaire des données par des utilisateurs autorisés
  • Garantir l’exactitude et la cohérence des données au moyen de processus tels que le contrôle des erreurs et la validation des données

Une bonne pratique permettant de garantir l’exactitude des données est le contrôle d’intégrité des fichiers (FIM). Le contrôle d’intégrité des fichiers permet aux organisations de détecter les modifications inappropriées apportées aux fichiers critiques de leurs systèmes en auditant toutes les tentatives d’accès ou de modification des fichiers et dossiers contenant des informations sensibles, et en vérifiant si ces actions sont autorisées.

Comment la disponibilité des données peut-elle être compromise ?

Les menaces envers la disponibilité comprennent les défaillances de l’infrastructure, comme les problèmes de réseau ou de matériel, les pannes logicielles imprévues, les surcharges de l’infrastructure, les pannes de courant et les cyberattaques telles que les attaques DDoS ou les attaques de rançongiciels.

Quelles mesures peuvent contribuer à préserver la disponibilité des données ?

Il est important de déployer des protections contre les interruptions de tous les systèmes qui doivent fonctionner en continu. Les différentes options comprennent la redondance matérielle, le basculement, le clustering et les sauvegardes de routine vers un espace géographiquement distinct. Par ailleurs, il est essentiel d’élaborer et de tester un plan complet de reprise après sinistre.

Essai gratuit : identifier et sécurisez vos données sensibles