1. COUVERTURE RADIO [retour "Radiocommunication"]

 

 

1.1 Principes  [retour "Radiocommunication"]

 

La couverture radio définit le pourcentage de lieux où les terminaux mobiles peuvent communiquer correctement avec l’infrastructure fixe (stations de base et antennes fixes), c’est-à-dire avec un niveau de réception (puissance reçue) supérieur à un seuil déterminé par la technologie utilisée.

 

Le niveau de réception s’exprime couramment en dBm, c’est-à-dire en puissance (unité : W) rapporté à une référence plus appropriée, le mW, et avec des échelles logarithmiques (dB) pour faciliter l’expression de grandeurs variant dans des plages très larges.

 

Comme dit précédemment, la couverture est un taux exprimé en %.


Ainsi, une couverture de 95% indique que les terminaux peuvent accéder aux services dans 95% des lieux.

 

A cette notion s’ajoute une probabilité sur le fait qu’en un lieu donné, la puissance reçue soit supérieure au seuil. En effet, la transmission des signaux radio se fait par l’accumulation d’un chemin direct et de chemins secondaires issus de réflexions sur des obstacles environnants, sur le sol, etc. donc par un processus apparenté avec les interférences qui peut renforcer ou au contraire atténuer la puissance globalement reçue.

 

Les obstacles peuvent être fixes – bâtiments, reliefs, forêts – ou en déplacement – camions, trains, etc.

 

Finalement, en un lieu donné, la puissance reçue fluctue aléatoirement dans un rapport pouvant atteindre 12 dB, c’est-à-dire variant dans un rapport de 1 à 15, ce qui explique qu’elle ne soit pas immuablement supérieure au seuil de fonctionnement. On exprime cette caractéristique par un taux de probabilité dans le temps que les communications passent à l’endroit considéré.

 

Ainsi, on pourra établir des cartes de couverture radio indiquant, sur un territoire, les zones où la réception est garantie dans 95% des lieux pendant 95% (ou 50%) du temps.

 

En corolaire des phénomènes physiques de transmission rapidement rappelés ici – en relation avec leurs caractéristiques aléatoires – on peut déduire que l’on ne peut jamais garantir un taux de couverture de 100% des lieux pendant 100% du temps.

 

 

1.2 Données de base  [retour "Radiocommunication"]

 

La couverture radio correspond à des caractéristiques techniques des équipements de transmission utilisés, tant côté utilisateur – terminaux radio portatifs ou véhicules, antennes, téléphones mobiles et smartphones, récepteurs de paging – que côté infrastructure – émetteurs et récepteurs de stations de base, antennes, câblage – ainsi qu’à des caractéristiques de transmission – distances entre les équipements, etc.

 

Ces caractéristiques sont utilisées dans un bilan de puissance radio pour dimensionner au préalable le canal de transmission et vérifier la faisabilité de la transmission et les marges à disposition.

 

Le bilan de puissance est établi pour les deux sens de transmission :

 

  • sens infrastructure à utilisateur, appelé downlink ou sens descendant

  • sens utilisateur à infrastructure, appelé uplink ou sens montant

 

En théorie, il faut obtenir un équilibre entre les deux sens puisqu’ils sont utilisés conjointement pour la transmission.

 

En pratique, la puissance d’émission de l’infrastructure est normalement plus élevée que celle des terminaux utilisateurs, ce qui, en première analyse, favorise le sens downlink – il y a en réalité d’autres paramètres, comme le niveau de bruit radio en réception, qui favorisent les seuils de réception en uplink. Il reste essentiel de faire le calcul pour les deux sens de transmission et d’analyser sur les deux calculs les conditions de transmission.

 

 

1.3 Prédiction de couverture  [retour "Radiocommunication"]

 

La prédiction est un outil permettant d’établir, avant la réalisation, quelle sera la couverture d’un réseau en cours de planification.

 

La prédiction se fait à l’aide d’applications informatiques dédiées. Certaines sont librement disponibles sur Internet, d’autres sont proposées par des éditeurs

spécialisés. étic utilise l’application ICS telecom (éditeur : ATDI), qui a également été retenue par les acteurs majeurs du secteur, régulateurs, fabricants et intégrateurs.

 

L’utilisation de l’outil est basée sur des cartes informatisées ainsi que sur un modèle numérique du terrain qui définit, sur une grille pouvant atteindre une précision de 1 m, l’attitude, l’occupation du sol – type de végétation, type d’environnement construit, plan d’eau, etc. – et la hauteur des bâtiments.

ZOOM COUVERTURE RADIO / TAUX DE CHARGE / REDONDANCE

L’outil de prédiction permet :

 

  1. de positionner les stations de base prévue pour l’infrastructure du réseau radio ;

  2. d’effectuer les calculs prédictifs à l’aide de modèles de propagation choisis en fonction de la technologie retenue et de la précision souhaitée ;

  3. de restituer les résultats sous une forme graphique avec les cartes des niveaux de réception.

 

Le processus de prédiction est itératif, jusqu’à l’obtention des performances requises et dans le cadre budgétaire disponible.

 

 

1.4 Mesures spécifiques à étic  [retour "Radiocommunication"]

 

Après réalisation, la couverture obtenue peut être contrôlée grâce à des mesures de terrain effectuées avec des équipements embarqués dans un véhicule de mesures tel que le 4x4 étic.

 

Ces mesures sont ensuite réinjectées dans l’outil de prédiction et superposées aux calculs prédictifs. étic vérifie ainsi la validité des paramètres utilisés pour la prédiction et, le cas échéant, les optimise dans le cadre d’un processus d’amélioration permanente.

 

 

2. TAUX DE CHARGE  [retour "Radiocommunication"]

 

L’utilisation conjointe par plusieurs utilisateurs d’un réseau de communication implique le partage de ressources communes, disponibles en quantité limitée.

Ces ressources permettent de transmettre les communications, voix et/ou données. La charge apportée par les utilisateurs sur le réseau est proportionnelle au nombre d’utilisateurs ainsi qu’à la quantité d’informations à transmettre par utilisateur, qui dépend elle-même de l’utilisation faite :

 

  • pour la voix, il peut s’agir de la fréquence d’établissement des communications et de leur durée, ainsi plus du taux acceptable d’échec ou d’attente en cas de saturation du réseau ;

  • pour les données, il s’agit plus généralement du débit et de la répartition temporelle de ce débit par utilisateur, voire des performances minimales acceptées par le système utilisateur (durée de latence, QoS, etc.).

 

Les ressources à partager peuvent être des canaux (nombre de canaux), des largeurs de bande spectrale ou des débits de transmission.

 

Dans le cas des technologies cellulaires, le réseau est constitué de cellules dont la taille est inversement proportionnelle à la charge d’utilisation. Le principe consiste donc à répartir spatialement la charge sur des cellules distinctes.

 

Le taux de charge du réseau mesure le degré d’occupation de celui-ci.


Il peut varier entre 0% - pas d’occupation du réseau – et 100% - saturation complète.

 

En réalité, les méthodes d’accès au réseau par les terminaux impliquent que le réseau doit être considéré comme quasi-saturé à partir d’un taux de charge inférieur à 100%. C’est le cas dès lors que l’on autorise les terminaux à accéder librement aux réseaux, comme en téléphonie fixe ou mobile classique.

 

La modélisation de ce type de fonctionnement conduit aux formules et courbes en Erlang, dont le principal but est de dimensionner un réseau de transmission en fonction du nombre d’utilisateurs et de la qualité de service attendue. Il s’agit d’un concept statistique supposant entre autres que l’utilisation du réseau faite par les utilisateurs est modélisable et répétitive et que le nombre d’utilisateurs est élevé.

 

Il est souvent nécessaire de recourir à des étapes préliminaires pour normaliser l’utilisation du réseau, ceci afin de pouvoir recourir ensuite aux formules et courbes en Erlang. On distingue plusieurs cas d’application :

 

  • l’Erlang B prévoit un accès au réseau avec, en cas de saturation de ce dernier, un échec de la tentative nécessitant une nouvelle procédure (manuelle) d’établissement ;

  • l’Erlang B étendu intègre en plus la notion de tentatives successives (automatiques) pour accéder au réseau et établir une communication ;

  • l’Erlang C exprime la probabilité, pour un nouvel utilisateur, de passer par une file d’attente – au lieu d’être servi directement, sans attente ; on admet ici que les arrivées de nouveaux utilisateurs (ou appels) suivent une loi de Poisson et que les durées d’attente suivent une distribution exponentielle à exposant négatif.

D’autres modélisations – telle celle d’Engset – s’appliquent plus précisément à des populations d’utilisateurs plus restreintes.

 

Le choix du modèle de calcul et la normalisation des caractéristiques d’utilisation demandent une expertise certaine car ils nécessitent une connaissance approfondie du fonctionnement des modèles, de leur particularité et de l’importance des différents paramètres qui y participent.

 

 

3. REDONDANCE  [retour "Radiocommunication"]

 

La redondance a pour but d’améliorer la fiabilité et la disponibilité d’un système en agissant sur ses composants ou éléments.

 

Le principe de la redondance consiste à prévenir la défaillance d’un élément en le multipliant et, dans la mesure du possible, en évitant que les différentes occurrences de cet élément puissent être atteintes simultanément par une perturbation donnée.

 

Les principaux paramètres permettant de quantifier les besoins de redondance sont :

 

  1. la disponibilité (en %) : c’est le rapport entre la durée où un système est apte au service et la durée totale d’observation. Ex : une disponibilité de 99.9% - qui parait intuitivement élevée – correspond en réalité à 8 heures et 45 minutes par an pendant lesquelles le système n’est pas disponible.

  2. le MTBF (Mean Time Between Failures ou durée moyenne entre pannes) : c’est la durée moyenne de bon fonctionnement d’un élément ; à l’échelle d’un système global, on calcule le MTBF sur la base des MTBF individuels de ses composants, des redondances internes et des conditions de fonctionnement.

  3. le MTTR (Mean Time To Repair ou durée moyenne jusqu’à la réparation) : c’est la durée d’indisponibilité jusqu’au remplacement des éléments en panne et jusqu’au retour au fonctionnement nominal du système.

  4. en relation avec les concepts de maintenance préventive – MCO (Maintien en conditions opérationnelles) – et de maintenance corrective – RCO (Retour aux conditions opérationnelles), les entreprises contractuellement chargées des interventions de réparation sont assujetties à des délais maximum d’intervention et de réparation définis dans des SLA (Service Level Agreement ou Accord de niveau de service).

 

En effet, la redondance s’inscrit dans le concept plus large de tolérance aux pannes et aux imperfections. Pour être efficace, la redondance doit être accompagnée par des processus permettant de détecter les pannes (détectabilité) et de les réparer (maintenabilité).

 

La tolérance aux pannes intègre donc la conception des systèmes – classe dont fait partie la redondance – mais aussi l’exploitation des systèmes :

 

  • maintenance, préventive et corrective

  • matériel de réserve pour les réparations

  • surveillance du fonctionnement

  • cycle de vie

 

Par ailleurs, la redondance engendre des coûts de réalisation supplémentaires qui doivent être mis en correspondance avec le respect des contraintes de disponibilité, elles-mêmes issues des conditions d’exploitation du système. Etablir et mettre en œuvre de la redondance revient donc à trouver l’équilibre optimal entre la disponibilité obtenue et le coût supplémentaire engendré.

 

En radiocommunication, la redondance peut être mise en œuvre en superposant des cellules de manière à ce que, en un point donné, on ait le choix entre plusieurs stations d’émission-réception distinctes. On peut également prévoir l’utilisation conjointe de deux systèmes indépendants n’utilisant pas d’infrastructure en commun.

 

Pour être réaliste, la mise en œuvre de la redondance doit être faite de manière éclairée et ciblée. Ainsi, les points critiques d’un système doivent être identifiés, y compris après la mise en redondance d’éléments individuels, afin d’éviter qu’il ne subsiste des SPOF (points uniques de défaillance).

 

La méthode AMDEC (Analyse des Modes de Défaillance et de leur Criticité), mise en application depuis plusieurs décennies dans des domaines très variés – industries automobile et aéronautique, etc. – permet d’analyser les criticités d’un système et de décider des mesures préventives à prendre – parmi lesquelles la redondance – pour assurer le niveau requis de tolérance aux pannes dans le cadre d’un budget déterminé.

 

[retour "Radiocommunication"]