Le connecteur Lightning : Apple conserve sa fermeture d’esprit

Avec son nouvel iPhone 5, Apple crée un nouveau standard propriétaire pour brancher les appareils et accessoires Apple : la connectique Lightning. Une connectique pourtant extrêmement proche du Micro-USB qui fait standard dans l’industrie, et qu’Apple a ostensiblement boudé pour conserver le contrôle sur l’écosystème des accessoires.

Adieu le vieux et gros connecteur à 30 broches qui existait depuis les toutes premières générations d’iPod ; il est désormais remplacé par un nouveau connecteur 80 % plus petit, baptisé Lightning.

Sur le plan du design, il est indiscutable qu’Apple ne pouvait pas conserver plus longtemps son ancien connecteur, devenu trop imposant par rapport aux exigences de miniaturisation qu’imposent les smartphones de dernières générations. Il est même étonnant que le changement n’intervienne qu’aujourd’hui, 11 ans après le lancement du premier iPod (Le 30 broches est arrivé en 2003 avec la troisième génération de l’iPod. Auparavant, c’était un port Firewire).

Mais le Lightning est un formidable témoin de la politique de rejet absolutiste des standards par Apple, qui ne veut surtout rien faire qui puisse permettre une compatibilité de ses produits avec ceux de ses concurrents. Quitte à tomber dans l’absurdité la plus totale.

Contrainte par les mêmes exigences de miniaturisation, les concurrents d’Apple, Samsung en tête, ont tous adopté un connecteur standard : le Micro-USB. Apple aurait pu suivre la norme. Il aurait même dû, puisqu’il a signé en 2009 un protocole d’accord avec la Commission Européenne, qui engage les constructeurs de téléphones mobiles à utiliser le standard Micro-USB sur leurs mobiles et leurs chargeurs. Mais Apple avait pris soin de faire ajouter à l’accord l’article 4.2.1, qui stipule que « si un constructeur met à disposition un adaptateur (Micro-USB vers) un port non-Micro-USB sur le téléphone mobile, ceci constitue la mise en conformité » avec l’accord.

C’est donc ce qu’Apple fait, depuis l’iPhone 4S. La firme de Cupertino a commercialisé en octobre 2011 un adaptateur micro-USB vers son connecteur à 30 branches, essentiel vu la différence de dimensions entre les deux connectiques, ici matérialisée par nos lignes jaunes :

A l’époque, on pouvait regretter que l’iPhone 4S n’adopte pas la norme Micro-USB, mais l’on pouvait encore comprendre la commercialisation d’un tel adaptateur, dès lors qu’Apple souhaitait continuer à assurer la compatibilité de l’iPhone avec l’énorme écosystème d’accessoires pour iPod et iPhone, qui exploitent le connecteur 30 branches.

Or avec l’iPhone 5, cette comptabilité a été rompue (encore une fois, pour une raison tout à fait légitime). Pour utiliser l’iPhone 5 ou les nouveaux iPod avec d’anciens docks au format 30 branches, il faut nécessairement en passer par un adaptateur femelle > mâle, à brancher sur l’ancien dock. Il coûte 29 euros.

Pour brancher un ancien accessoire distant disposant d’une sortie 30 branches vers un iPhone ou iPod de dernière génération, Apple propose aussi un adaptateur femelle > mâle doté d’un cordon de 20 cm. Il coûte 39 euros (soit 50 centimes le centimètre de cordon, puisque la différence avec l’accessoire précédent est le cordon).

Pourtant, que ce soit au niveau technologique ou au niveau du design, la connectique Lightning n’apporte rien. Il suffit pour s’en convaincre de regarder l’adaptateur Lightning vers Micro-USB que vend Apple 19 euros pour se conformer à ses engagements européens. Les dimensions de son Lightning sont exactement les mêmes que celles du port Micro-USB :

Il sera difficile pour Apple de faire croire qu’il n’a pas délibérément choisi de ne pas respecter la norme Micro-USB, pour garder le contrôle absolu sur l’écosystème, très juteux pour son chiffre d’affaires. Personne ne pourra commercialiser d’appareils avec connectique Lightning sans payer une redevance à Apple.

Mais puisqu’il faut quand même faire croire qu’il pense au bien-être de ses clients, Apple a trouvé la justification :

« Pour affiner et alléger l’iPhone 5, il a fallu remplacer le connecteur 30 broches par quelque chose d’innovant, de plus petit et de plus efficace : le connecteur Lightning. Celui-ci bénéficie d’une conception à 8 signaux intégralement numérique beaucoup plus durable que celle du connecteur 30 broches. Lightning présente une autre caractéristique incroyable : il est réversible. En d’autres termes, il se branche dans les deux sens. »

L’USB 3.0 : toujours plus rapide

L’USB 3.0, ou SuperSpeed USB, est on l’aura deviné le successeur des normes USB 1.x et 2.0. Le SuperSpeed USB est annoncé avec des vitesses de transferts, 6 à 10 fois plus rapide que l’USB 2.0, il est rétrocompatible avec les anciennes normes, synchronise plus vite les périphériques lors de la connexion, et, point important, gère bien mieux la consommation d’énergie (mise en veille, mise en route, désactivation si nécessaire).

Citius, altius, fortius… la devise de l’USB 3.0 ?
USB-3-0-CableL’USB 3.0 alias « SuperSpeed » fait timidement son apparition depuis ce début d’année 2010. Cette nouvelle norme de l’Universal Serial Bus dispose principalement d’une vitesse de transfert en nette amélioration, puisque l’on parle en théorie de 5 Gbit/s (4,8 Gbit/s soit 600 Mo/s). Pour mémoire, l’USB 1.x pouvait communiquer en  mode lent (Low Speed) à 1,5 Mbit/s et entre 12 Mbit/s et 1,5 Mo/s en mode rapide (Full Speed). L’USB 2.0 (High Speed) atteint quant à lui 480 Mbit/s (soit 60 Mo/s). D’après l’USB-IF, consortium des acteurs qui soutiennent cette norme, l’USB 3.0 est donc annoncé dix fois plus rapide que son prédécesseur l’USB 2.0 !

Quid de la compatibilité ?
Comme bien souvent, une nouvelle norme s’inscrit toujours dans le prolongement de celles déjà existantes. En d’autres termes, l‘USB 3.0 est rétro-compatible avec les normes précédentes. Il est donc tout à fait possible de connecter vos disques durs externes, scanners, imprimantes, clés USB, webcams… qu’ils soient anciens en USB 1.x (1.0 et 1.1) ou actuels en USB 2.0.

Quoi de neuf hormis la vitesse ?
Nous le verrons plus en détails tout au long de ce dossier de présentation. Mais on peut déjà dévoiler que l’USB 3.0 bénéficie de la technologie de synchronisation nommée « Sync-N-Go« . Cette dernière diminue les temps d’attente USB_3.0_Iconpour l’utilisateur à la connexion et réorganise au mieux, les temps de transfert des données. Le SuperSpeed USB dispose également d’une meilleure gestion de la consommation en énergie pour les périphériques. Ceci s’applique pour les différents états de fonctionnement (périphérique en veille, activé avec une puissance variable selon les besoins ou totalement suspendu).

Mise au point sur la connectique et les périphériques disponibles !
Les câbles et la connectique vont-ils changer ? Quels sont leSuperSpeed_USBLogo_prs matériels déjà disponibles à la vente ? Mon système d’exploitation Windows, MAC et ma distribution GNU/Linux sont-ils parés ? Le cas échéant comment mettre à jour ma configuration logicielle et matérielle ? Voici des problèmes concrets qui préoccupent l’utilisateur final ! Depuis janvier 2010, les périphériques arrivent au compte-goutte mais ils ont le mérite d’exister.

Le standard-A est maintenu pour la compatibilité
Concernant la connectique elle est diverse et variée et voici ce qu’il faut retenir pour ces « cordons bleus ». Les câbles traditionnels existants déjà pour l’USB Highspeed conservent l’embout physique de type USB Standard-A, ceci afin de pouvoir relier vos périphériques anciens USB 1.x et 2.0. C’est comme nous l’avons évoqué plus haut, le nombre de fils internes qui augmentent (de 4 à 8). Pour profiter du SuperSpeed, en plus des ports physiques sur votre matériel, il vous faudra un nouveau câble USB Standard A vers A ou A vers B

SuperSpeed_USB_stda   USBAtoA

Du nouveau pour les Standard-B et Mini-B
Pour bénéficier de la pleine vitesse en USB 3.0, les nouveaux périphériques (scanner, imprimantes…) disposeront de nouveaux connecteurs USB Standard-B. Ils sont plus étirés dans le sens de la hauteur. Les USB Mini B (appareil photo numérique, GPS…) sont également d’un nouveau type. Ils disposent d’un double connecteur comme l’indique la photo ci-dessous.

SuperSpeed_USB_stdb   SuperSpeed_USB_minib

Support de l’USB 3.0 pour les principaux systèmes d’exploitation
Pour Windows Vista et Seven, les pilotes sont fonctionnels mais encore en cours de développement. Si votre carte mère dispose de ports internes et externes en USB 3.0, il convient de télécharger les SuperSpeed USB Software and Hardware Tools. Nous vous conseillons de télécharger la version 0.9.6.2 d’USB30CV en32 bits ou en 64 bits selon votre OS. A l’heure actuelle, on ne sait rien concernant un éventuel support pour Windows XP. Depuis septembre 2009, le noyau Linux en version 2.6.31 supporte nativement les contrôleurs USB 3.0 xHCI (Extensible Host Controller Interface), donc pas de soucis pour les utilisateurs des distributions GNU/Linux actualisées (Ubuntu, Debian, Mandriva…). Du côté d’Apple, peu d’informations sont délivrées. Mais, il va de soi que tout comme l’USB 2.0, si le SuperSpeed est soutenu par les grands acteurs du marché, il sera de la partie le moment venu sur la gamme des MAC, au détriment du FireWire.

SuperSpeed_USB_stda_internal   SuperSpeed_USB_cabcon

La technologie NFC, ou le transfert par un simple contact

NFC (Near Field Communication) :

La technologie de communication de données sans contact fait office de mini-révolution dans le monde des terminaux mobiles. Elle pourrait notamment faciliter les achats via téléphone portable.

Qu’est ce que la technologie NFC ?

C’est une technologie de communication de proximité (quelques centimètres) lancée par Sony et Philips, le Near Field Communication (communications en champ proche) permet d’échanger des données entre un lecteur et n’importe quel terminal mobile ou entre les terminaux eux-mêmes et ce, à un débit maximum de 424 Kbits/s.Les utilisations sont multiples : un smartphone peut se connecter à un ordinateur pour télécharger un fichier, un téléviseur échangera des données avec un smartphone… Au-delà, ce sont les marchés du contrôle d’accès, des transactions en magasin  ou des bornes interactives de tout type qui sont concernés, mais aussi les achats par simple approche d’un terminal pourront avoir lieu (achat d’un produit vendu en distributeur en approchant son téléphone portable de la vitre, par exemple…).

Quels sont ses atouts ?

Un des autres atouts du NFC, par rapport à la technologie Bluetooth notamment, réside dans les caractéristiques mêmes des puces NFC : de taille très réduite, elles sont conçues pour qu’un lecteur puisse dialoguer avec plusieurs d’entre elles de manière simultanée, sans risque de collision. Enfin, dernière promesse de la technologie : permettre le paiement sécurisé, via encodage et chiffrement embarqués.

NFC : pourquoi des entreprises s'y mettent

À quoi peut servir la NFC?

La principale utilisation, à laquelle les gens pensent, est le paiement. Les Cartes bancaires sans contact sont de plus en plus fréquentes et un téléphone NFC peut agir comme telle. Cela signifie que lorsque vous êtes dans un magasin et prêts à payer, plutôt que de sortir votre carte de crédit standard vous pouvez mettre votre téléphone à proximité du «lecteur» et effectuer le paiement.

La seconde utilisation qui est fréquemment évoquée, après le paiement, est le contrôle d’accès sécurisé. Beaucoup de bureaux et d’espaces publics possèdent des lecteurs sans contact qui gardent les portes verrouillées et les personnes autorisées peuvent utiliser une carte d’accès pour ouvrir la porte. Encore une fois le téléphone NFC peut jouer le rôle de la carte d’accès et vous ouvrir les portes, quand il est évidemment placé dans le champ (F NFC) du lecteur.

Le Wi-Fi, réseau du quotidien

Qu’est ce que le Wi-Fi ?

La norme IEEE 802.11 (ISO/IEC 8802-11) est un standard international décrivant les caractéristiques d’un réseau local sans fil (WLAN). Le nom Wi-Fi (contraction de Wireless Fidelity, parfois notée à tort WiFi) correspond initialement au nom donnée à la certification délivrée par la Wi-Fi Alliance, anciennement WECA (Wireless Ethernet Compatibility Alliance), l’organisme chargé de maintenir l’interopérabilité entre les matériels répondant à la norme 802.11. Par abus de langage (et pour des raisons de marketing) le nom de la norme se confond aujourd’hui avec le nom de la certification. Ainsi un réseau Wifi est en réalité un réseau répondant à la norme 802.11. Les matériels certifiés par la Wi-Fi Alliance bénéficient de la possibilité d’utiliser le logo suivant : 

Logo de la certification Wi-Fi

Grâce au Wi-Fi, il est possible de créer des réseaux locaux sans fils à haut débit pour peu que l’ordinateur à connecter ne soit pas trop distante par rapport au point d’accès. Dans la pratique, le WiFi permet de relier des ordinateurs portables, des ordinateurs de bureau, des assistants personnels (PDA) ou tout type de périphérique à une liaison haut débit (11 Mbps ou supérieur) sur un rayon de plusieurs dizaines de mètres en intérieur (généralement entre une vingtaine et une cinquantaine de mètres) à plusieurs centaines de mètres en environnement ouvert. 

Ainsi, des opérateurs commencent à irriguer des zones à fortes concentration d’utilisateurs (gares, aéroports, hotels, trains, …) avec des réseaux sans fils. Ces zones d’accès sont appelées « hot spots ». 

Présentation du WiFi (802.11)

La norme 802.11 s’attache à définir les couches basses du modèle OSI pour une liaison sans fil utilisant des ondes électromagnétiques, c’est-à-dire :

  • la couche physique (notée parfois couche PHY), proposant trois types de codages de l’information.
  • la couche liaison de données, constitué de deux sous-couches : le contrôle de la liaison logique (Logical Link Control, ou LLC) et le contrôle d’accès au support (Media Access Control, ou MAC)

La couche physique définit la modulation des ondes radio-électriques et les caractéristiques de la signalisation pour la transmission de données, tandis que la couche liaison de données définit l’interface entre le bus de la machine et la couche physique, notamment une méthode d’accès proche de celle utilisée dans le standard ethernet et les règles de communication entre les différentes stations. La norme 802.11 propose en réalité trois couches physiques, définissant des modes de transmission alternatifs : 

Couche Liaison de données(MAC) 802.2
802.11
Couche Physique(PHY)
DSSS FHSS Infrarouges

Il est possible d’utiliser n’importe quel protocole de haut niveau sur un réseau sans fil WiFi au même titre que sur un réseau ethernet. 

Les différentes normes WiFi

La norme IEEE 802.11 est en réalité la norme initiale offrant des débits de 1 ou 2 Mbps. Des révisions ont été apportées à la norme originale afin d’optimiser le débit (c’est le cas des normes 802.11a, 802.11b et 802.11g, appelées normes 802.11 physiques) ou bien préciser des éléments afin d’assurer une meilleure sécurité ou une meilleure interopérabilité. Voici un tableau présentant les différentes révisions de la norme 802.11 et leur signification : 

Nom de la norme Nom Description
802.11a Wifi5 La norme 802.11a (baptisé WiFi 5) permet d’obtenir un haut débit (54 Mbps théoriques, 30 Mbps réels). La norme 802.11a spécifie 8 canaux radio dans la bande de fréquence des 5 GHz.
802.11b Wifi La norme 802.11b est la norme la plus répandue actuellement. Elle propose un débit théorique de 11 Mbps (6 Mbps rééls) avec une portée pouvant aller jusqu’à 300 mètres dans un environnement dégagé. La plage de fréquence utilisée est la bande des 2.4 GHz, avec 3 canaux radio disponibles.
802.11c Pontage 802.11 vers 802.1d La norme 802.11c n’a pas d’intérêt pour le grand public. Il s’agit uniquement d’une modification de la norme 802.1d afin de pouvoir établir un pont avec les trames 802.11 (niveauliaison de données).
802.11d Internationalisation La norme 802.11d est un supplément à la norme 802.11 dont le but est de permettre une utilisation internationale des réseaux locaux 802.11. Elle consiste à permettre aux différents équipements d’échanger des informations sur les plages de fréquence et les puissances autorisées dans le pays d’origine du matériel.
802.11e Amélioration de la qualité de service La norme 802.11e vise à donner des possibilités en matière de qualité de service au niveau de la couche liaison de données. Ainsi cette norme a pour but de définir les besoins des différents paquets en terme de bande passante et de délai de transmission de telle manière à permettre notamment une meilleure transmission de la voix et de la vidéo.
802.11f Itinérance (roaming) La norme 802.11f est une recommandation à l’intention des vendeurs de point d’accès pour une meilleure interopérabilité des produits. Elle propose le protocole Inter-Access point roaming protocol permettant à un utilisateur itinérant de changer de point d’accès de façon transparente lors d’un déplacement, quelles que soient les marques des points d’accès présentes dans l’infrastructure réseau. Cette possibilité est appelée itinérance (ou roaming en anglais)
802.11g   La norme 802.11g offre un haut débit (54 Mbps théoriques, 30 Mbps réels) sur la bande de fréquence des 2.4 GHz. La norme 802.11g a une compatibilité ascendante avec la norme 802.11b, ce qui signifie que des matériels conformes à la norme 802.11g peuvent fonctionner en 802.11b
802.11h   La norme 802.11h vise à rapprocher la norme 802.11 du standard Européen (HiperLAN 2, doù le h de 802.11h) et être en conformité avec la réglementation européenne en matière de fréquence et d’économie d’énergie.
802.11i   La norme 802.11i a pour but d’améliorer la sécurité des transmissions (gestion et distribution des clés, chiffrement et authentification). Cette norme s’appuie sur l’AES (Advanced Encryption Standard) et propose un chiffrement des communications pour les transmissions utilisant les technologies 802.11a, 802.11b et 802.11g.
802.11Ir   La norme 802.11r a été élaborée de telle manière à utiliser des signaux infra-rouges. Cette norme est désormais dépassée techniquement.
802.11j   La norme 802.11j est à la réglementation japonaise ce que le 802.11h est à la réglementation européenne.

Il est intéressant de noter l’existence d’une norme baptisée «802.11b+». Il s’agit d’une norme propriétaire proposant des améliorations en terme de débits. En contrepartie cette norme souffre de lacunes en termes de garantie d’interopérabilité dans la mesure où il ne s’agit pas d’un standard IEEE. 

Portées et débits

Les normes 802.11a, 802.11b et 802.11g, appelées «normes physiques» correspondent à des révisions du standard 802.11 et proposent des modes de fonctionnement, permettant d’obtenir différents débits en fonction de la portée. 

Standard Bande de fréquence Débit Portée
WiFi a (802.11a) 5 GHz 54 Mbit/s 10 m
WiFi B (802.11b) 2.4 GHz 11 Mbit/s 100 m
WiFi G (802.11g) 2.4 GHz 54 Mbit/s 100 m

802.11a

La norme 802.11a permet d’obtenir un débit théorique de 54 Mbps, soit cinq fois plus que le 802.11b, pour une portée d’environ une trentaine de mètres seulement. La norme 802.11a s’appuie sur un codage du type Orthogonal Frequency Division Multiplexing (OFDM) sur la bande de fréquence 5 GHz et utilisent 8 canaux qui ne se recouvrent pas. 

Ainsi, les équipements 802.11a ne sont donc pas compatibles avec le équipements 802.11b. Il existe toutefois des matériels intégrant des puces 802.11a et 802.11b, on parle alors de matériels «dual band». 

Débit théorique(en intérieur) Portée
54 Mbits/s 10 m
48 Mbits/s 17 m
36 Mbits/s 25 m
24 Mbits/s 30 m
12 Mbits/s 50 m
6 Mbits/s 70 m

802.11b

La norme 802.11b permet d’obtenir un débit théorique de 11 Mbps, pour une portée d’environ une cinquantaine de mètres en intérieur et jusqu’à 200 mètres en extérieur (et même au-delà avec des antennes directionnelles). 

Débit théorique Portée(en intérieur) Portée(à l’extérieur)
11 Mbits/s 50 m 200 m
5,5 Mbits/s 75 m 300 m
2 Mbits/s 100 m 400 m
1 Mbit/s 150 m 500 m

802.11g

La norme 802.11g permet d’obtenir un débit théorique de 54 Mbps pour des portées équivalentes à celles de la norme 802.11b. D’autre part, dans la mesure où la norme 802.11g utilise la bande de fréquence 2,4GHZ avec un codage OFDM, cette norme est compatible avec les matériels 802.11b, à l’exception de certains anciens matériels. 

Débit théorique Portée(en intérieur) Portée(à l’extérieur)
54 Mbits/s 27 m 75 m
48 Mbits/s 29 m 100 m
36 Mbits/s 30 m 120 m
24 Mbit/s 42 m 140 m
18 Mbit/s 55 m 180 m
12 Mbit/s 64 m 250 m
9 Mbit/s 75 m 350 m
6 Mbit/s 90 m 400 m

Le Bluetooth, une technologie indispensable

Un peu d’histoire, pourquoi Bluetooth ?

Petit paragraphe pédagogique. La technologie tire son nom d’un roi danois, Harald Blåtand. Ce monsieur, né en 911, a réussi à unifier des royaumes vikings (la Suède, le Danemark et la Norvège) à un moment où le monde entier était divisé en de nombreux petits royaumes.

Harald BlatandLe nom de ce roi peut se traduire par « Dent Bleue », justement. Et comme un des instigateurs du projet n’est autre qu’Ericsson (société suédoise), le nom « Bluetooth » a été proposé pour la norme et a été accepté.

Le logo de la norme Bluetooth est une référence au nom du roi Harald Blåtand, les symboles internes sont un H et un B en runes nordiques.

Le Bluetooth est souvent présent dans les téléphones et les PC portables, mais son utilité ne saute pas nécessairement aux yeux. Typiquement, c’est une norme qui permet de faire communiquer des appareils électroniques sans fil, par onde radio.

Concurrent du Wi-Fi ? Non

On compare souvent le Bluetooth à l’infrarouge et au Wi-Fi, mais ces trois technologies sont très différentes.

L’infrarouge est relativement rapide (16 mégabits par seconde) mais a une portée très courte, les périphériques doivent être alignés et se voir, et surtout l’infrarouge ne sert qu’au transfert de données. Cette norme est d’ailleurs très rare actuellement dans l’informatique.

Le Wi-Fi est une norme rapide (jusque 300 mégabits par seconde, voire plus, du moins en théorie), avec une grande portée (plus de 100 mètres) mais qui souffre d’une grande consommation et surtout qui est conçue pour créer des réseaux, pas pour connecter une oreillette, par exemple.

Le Bluetooth est modulaire

L’avantage du Bluetooth est qu’il est simple à implémenter, pas trop cher, et bien standardisé : une organisation, le Bluetooth SIG (Bluetooth Special Interest Group) s’occupe de la normalisation de la technologie.

Un des grands avantages du Bluetooth vient de sa modularité : on travaille avec ce que l’on appelle des « Profile ». Un Profile est une couche logicielle standardisée qui permet de communiquer entre deux périphériques et qui vient se placer au-dessus de la couche de transport (la norme elle-même). Pour utiliser une oreillette, par exemple, il suffit que les deux appareils soient compatibles avec le Profile HSP (Head Set Profile). Les Profiles évoluent et certains appareils peuvent même recevoir des Profiles supplémentaires au fil du temps.

Généralement, un appareil Bluetooth est caractérisé par deux informations : sa version de la norme et sa Classe.

Compatibilité dans tous les sens pour la norme

Mettons les choses au point : un appareil Bluetooth 2.1 + EDR (dernière version de la norme) est compatible avec un autre appareil en version 1.0b (la première utilisée commercialement). Bien évidemment, on ne tirera pas parti de certaines avancées apparues dans les dernières versions de la norme, mais ça fonctionne.

Les différentes normes

La version 1.0 du Bluetooth a été très peu utilisée et a été très vite remplacée par la version 1.0b, qui a été la première version proposée commercialement. La seule différence entre les périphériques 1.0 et 1.0b c’est que l’interopérabilité entre marques est meilleure avec la version 1.0b. Les premiers téléphones Bluetooth (comme le T68i) utilisent la norme Bluetooth 1.0b. Ils ne posent aucun problème de compatibilité avec les versions suivantes de la norme.

La version 1.1 du Bluetooth est une mise à jour mineure, qui apporte peu de choses : quelques corrections de bug par rapport à la version 1.0b, la possibilité d’utiliser des canaux non cryptés et l’ajout d’un signal permettant de connaître la puissance de réception.

La version 1.2 apporte une vitesse pratique un peu supérieure et une meilleure résistance aux interférences (en séparant bien les sauts de fréquences).

La version 2.0 est rétrocompatible avec les versions 1.x, et réduit la consommation des périphériques tout en améliorant la fiabilité des transferts (en utilisant une meilleure correction des erreurs).

La version 2.0 + EDR permet une plus grande vitesse pratique, jusqu’à 2,1 mégabits/s (au lieu de 0,7 mégabit/s avec les versions antérieures). Bien évidemment, il faut que les deux appareils qui communiquent soient compatibles EDR. C’est la version la plus courante dans les PC portables et les téléphones.

Enfin, la version 2.1 + EDR améliore certains points, donc le jumelage. Avec cette version, l’appairage est plus simple et plus rapide. De plus, quelques améliorations de sécurité sont présentes, ainsi qu’un mode de connexion « NFC » (Near Feald Contact) qui permet des liaisons à très courte portée.

Les trois Classe

La portée des équipements Bluetooth dépend en grande partie de la puissance en émission. Il existe trois classes de produits Bluetooth, en fonction de la puissance émise.

Les produits de la Classe 1 sont les plus puissants. Ils émettent avec une puissance maximum de 100 milliwatts. La portée effective de ces appareils est d’environ 100 mètres (sans obstacles). Les dongles (adaptateurs pour PC) sont en majorité des périphériques de Classe 1 (parfois Classe 2).

Les produits de la Classe 2 sont les plus courants. La puissance habituelle est d’environ 2,5 milliwatts. La portée est nettement plus courte, environ une dizaine de mètres. La majorité des PDA et des appareils les plus courants utilisent cette classe. Les téléphones récents sont en général aussi des appareils de la Classe 2.

Enfin, la Classe 3 est la moins puissante. La puissance est limitée à 1 milliwatt, et la portée est de quelques mètres au maximum. Les téléphones portables sont en général des appareils de la Classe 3.

Même si le Bluetooth utilise une fréquence proche des fours à micro-ondes, la puissance est tellement faible qu’il n’y a aucun danger réel : un téléphone portable a une puissance moyenne de 2 milliwatts en Bluetooth et un four atteint les 1000 Watts (et libère environ 1 Watt vers l’extérieur).

Le Bluetooth utilise une technologie radio pour la transmission des données, nous l’avons déjà vu. La norme utilise une bande de fréquences ISM (Industriel Scientifique Médicale) qui se trouve dans les 2,4 GHz. Pour couper court (en partie) à la polémique, rappelons que « dans la bande des 2,4 GHz » ne signifie pas 2,45 GHz — la fréquence utilisée dans les fours à micro-ondes — et qu’il ne s’agit pas non plus de la fréquence de résonance de l’eau. Au passage, les fours à micro-ondes industriels travaillent aux environs de 900 MHz.

Une bande encombrée

Une autre technologie courante travaille dans la même bande, le Wi-Fi (en version 802.11b, 802.11g et 802.11n), et les récepteurs de beaucoup de claviers et de souris utilisent aussi cette bande de fréquence.Vraiment loin d'un four

Le Bluetooth travaille sur 79 fréquences, par pas de 1 MHz, entre 2400 et 2483,5 MHz. Il fonctionne par sauts de fréquences, c’est-à-dire que la fréquence utilisée change en permanence (toutes les 625 microsecondes, soit 1600 fois par seconde). Cette particularité permet en partie d’éviter les interférences (la bande des 2400 MHz était notamment utilisée par l’armée pour ses communications).

Les différentes versions de la norme Bluetooth améliorent en partie la gestion des interférences, la version 1.1 ajoute un signal indiquant la puissance de réception (RSSI) et la version 1.2 utilise la technologie AFH (saut de fréquences adaptatif) qui permet de réduire les interférences avec les réseaux Wi-Fi en évitant de faire des sauts entre des fréquences trop proches.

La liaison synchrone

Liaison synchroneLes liaisons synchrones sont utilisées pour relier deux appareils qui doivent communiquer dans les deux sens à la même vitesse, par exemple une liaison entre deux ordinateurs, ou entre un PDA et un téléphone. La vitesse de transfert en synchrone est de 432 kilobits/s en bidirectionnel. Les données sont transmises en continu et si un problème survient durant le transfert, les données sont renvoyées directement. Concrètement, ce mode de liaison ne convient pas pour des transmissions vocales, par exemple, à cause du décalage possible qui est inacceptable. En EDR, le débit est triplé, si les deux appareils sont compatibles (1 296 kilobits/s).

La liaison asynchrone (ACL)

Liaision asynchroneLes liaisons asynchrones sont utilisées quand un canal nécessite plus de vitesse que l’autre. Par exemple, une connexion Internet typique travaille en asynchrone (on reçoit nettement plus que ce que l’on envoie). La vitesse de transfert en ACL est de 721 kilobits/s dans un sens et 57,6 kilobits/s dans l’autre. De la même façon que les liaisons synchrones rapides, en asynchrone il peut arriver que des paquets se perdent. En cas de problème, les paquets sont réenvoyés immédiatement, ce qui empêche de travailler en temps réel. De ce fait, les liaisons ACL ne sont pas adaptées au transfert de contenu en temps réel (voix, vidéo, etc.). On utilise les liaisons ACL pour des transferts de fichiers et pour les communications entre deux périphériques dont un demande peu de retour : une connexion Internet, une impression, etc. Comme en synchrone, on passe de 721 à 2 163 kilobits/s en EDR.

La liaison voix (SCO)

Le Bluetooth propose des canaux spécialisés pour le transfert de la voix ou des données, les canaux SCO (Synchronous Connection Oriented). Un canal propose une vitesse de transfert de 64 kilobits/s. Un esclave peut utiliser 3 canaux SCO simultanément. Contrairement aux liaisons ACL, en cas de pertes de données la liaison SCO ne renvoie pas les paquets. Du coup, elle permet le temps réel, mais avec un risque de perte de données. Comme on utilise essentiellement les liaisons SCO pour la voix, la perte de quelques bits de données est négligeable.

Liaison SCO (voix)

Les liaisons entre un téléphone portable et une oreillette utilisent une liaison de type SCO. Pour la transmission de la voix, le Bluetooth utilise un codage de type CVSDM (Continuously Variable Slope Delta Modulation). Étant donné que le canal ne fournit que 64 kilobits/s et que le CVSDM ne compresse pas le son, la qualité est assez faible : le son est transmis en monophonique, avec une fréquence d’échantillonnage de 8 kHz et une quantification en 8 bits. Pour rappel, le CD utilise une fréquence d’échantillonnage de 44 kHz en 16bits et stéréo. Concrètement, pour un usage « voix » uniquement cela suffit amplement, mais pour un usage musical c’est totalement insuffisant, ce qui explique l’existence d’un Profile dédié (A2DP).

L’avenir des réseaux : la 4G LTE-Advanced

Les opérateurs se battent actuellement sur le déploiement de la « 4G », cette fameuse technologie qui devrait leur permettre de se différencier par la qualité de leur réseau. Mais, dans cette course effrénée vers la performance, la technologie derrière cette 4G, la LTE, devrait rapidement atteindre ses limites. La consommation de données explose et le combat de la couverture ne devrait pas suffire à ce que chacun se démarque. Essayons de comprendre en quoi la LTE-Advanced évoquée par les opérateurs devrait changer les choses au cours des années à venir.

Pour simplifier le problème, l’idée de la LTE-Advanced est d’améliorer la technologie actuelle, la LTE (Long Term Evolution), afin d’atteindre les exigences de la véritable 4G telles que définies par l’Union Internationale des Télécommunications (UIT). Tout comme pour la téléphonie de troisième génération, l’UIT a défini à travers les spécifications « IMT-Advanced » les conditions requises pour la dénomination « 4G » (quelques détails ici). Parmi les exigences, un débit maximal théorique de 1 Gbps (100 Mbps en mouvement). Nous n’y sommes pas encore…

Pourquoi les questions de tels débits se posent déjà

Le débit théorique disponible au sein d’une cellule (la zone couverte par une antenne) est à partager entre tous les utilisateurs se situant à l’intérieur de celle-ci. Dans les zones très denses (les grandes métropoles, les lieux touristiques, etc.), la taille des cellules est déjà suffisamment petite pour que le nombre d’utilisateurs soit acceptable (en campagne, une cellule peut faire plusieurs Km2). Cependant, les usages se multiplient et sont de plus en plus gourmands en données. Ils faut donc, dès maintenant, penser à augmenter les capacités théoriques de ces cellules, c’est-à-dire les débits maximaux partagés.

Une vraie conception data

Les réseaux 2G/3G n’ont pas été conçus pour faire face à cette explosion de la consommation data. Bien que suffisants pour beaucoup d’usages, leur conception limite leur potentiel pour les besoins de demain. Il faudrait considérablement diminuer la taille des cellules (ce qui reviendrait à diminuer le nombre d’utilisateurs par cellule) pour proposer des débits acceptables, ce qui n’est pas pertinent économiquement et très difficile techniquement.

Adoptée depuis peu, la technologie LTE permet déjà d’augmenter sensiblement les débits ; elle a été conçue pour tous ces usages data, elle permet donc un confort d’utilisation bien plus grand (notamment le temps de latence bien moindre). À ce stade, la 4G commerciale de nos opérateurs permet déjà d’observer ce gain de confort de manière non négligeable. Mais, la croissance de la consommation est telle que les limites de la technologie pourrait arriver bien plus tôt que l’on eût pu prévoir il y a quelques années encore.

Dossier-4G

La LTE-Advanced, mise à jour naturelle de notre LTE

La LTE-Advanced est la réponse idéale à ce futur problème dans la mesure où elle est constituée d’améliorations techniques préservant une compatibilité avec la technologie actuelle. Ainsi, les opérateurs pourront mettre à jour leurs matériels afin d’augmenter les capacités de leur réseau, et ce, sans trop de difficultés techniques et administratives. Les utilisateurs pourront, de leur côté, continuer à utiliser leur téléphone 4G sans aucun problème. Les mieux équipés (terminaux récents compatibles LTE-Advanced)bénéficieront quant à eux des débits supérieurs de la LTE-Advanced. Cette coexistence rappelle le cas de la génération GSM avec GPRS / EDGE ; la couverture est identique, seule la technologie du terminal différenciera le débit fourni à l’utilisateur.

Par ailleurs, personne n’ignore que les opérateurs hexagonaux livrent un combat assez féroce depuis l’arrivée d’un quatrième acteur sur le marché. Cette nouvelle donnée sur un tel marché pousse les opérateurs historiques à se différencier par le réseau. Le premier combat est celui de la couverture, leur ancienneté facilitant la domination. Le second combat sera celui du débit. La LTE-Advanced s’avérera donc particulièrement pertinente d’un point de vue concurrentiel. Les ressources spectrales (blocs de fréquences) des trois opérateurs historiques sont supérieures à celles du nouvel entrant, ce qui pourrait donner naissance à un nouvel argument de vente.

La technologie actuelle (LTE) n’est qu’une première étape

La technologie LTE actuellement déployée en France est, du point de vue des débits, une petite mise à jour. En effet, le débit par cellule ne passe « que » de 42Mbps en Dual-Carrier à, au mieux, 150Mbps (pour Orange et Free Mobile). Ce qui ne sera pas, pour beaucoup, un énorme gap. Cependant, il ne faut pas oublier que la technologie LTE est la première technologie conçue pour la data, même si la 3G permettait de bons débits. Cela se ressentira sur la qualité de navigation, notamment.

SFR 4G

La LTE apporte un confort inégalable pour les usages data

Tous les utilisateurs de la 4G (sous réserve d’une bonne couverture…) ont pu constater le confort d’une connexion en 4G : meilleurs débits et moins de latence. Le confort est tel que les consommateurs ont tendance à utiliser davantage leur fair-use, Bouygues Télécom parlent de + 200 %… ! Mais attention, que les choses soient bien interprétées : ce qui fait augmenter la consommation ce n’est pas le débit, mais le confort. Certaines personnes usent de calculs fallacieux concluant que le fair-use est utilisé en quelques minutes…

consommation data mobile france

La moyenne d’utilisation actuelle du fair-use ne dépasse même pas les 500 Mo, les utilisateurs qui garderont leurs habitudes consommeront la même quantité de données, mais avec une meilleure instantanéité. Pour autant, les opérateurs devront augmenter leur fair-use assez rapidement, quand la couverture 4G sera suffisante (la 3G actuelle, au fair-use coûteux, supporterait difficilement une augmentation de celui-ci dès à présent, surtout pour les gros opérateurs).

La jeune et naissante LTE a un petit potentiel, la LTE-Advanced en a un gros

L’efficacité spectrale théorique se mesure en quantité de données (bits) pouvant être transférées durant 1 seconde sur une largeur de bande de 1 Hz. Celle de la technologie LTE classique peut atteindre les 15 bits/s/Hz en download et 6,75 bits/s/Hz en upload. Si l’on prend les ressources spectrales des deux opérateurs Orange et Free Mobile dans la bande 2600 MHz, soit 20 MHz pour le download (contre 15 MHz pour SFR et Bouygues Télécom), le débit maximal théorique pourrait alors théoriquement atteindre : 15 bits/s/Hz x 20000 Hz =  300 Mbits/s. Or, la technologie actuelle ne permet d’obtenir que 150 Mbps. Ce qui nous donne une efficacité spectrale deux fois moindre. Autant dire que la LTE actuellement déployée en France n’est pas encore au maximum de ses capacités.

Cependant, même en atteignant une efficacité spectrale à 15 bits/s/Hz en download, les opérateurs devront posséder environ 70 MHz en un seul bloc (pour la LTE classique) afin d’atteindre les débits de la norme 4G, à savoir 1 Gbps. Ceci n’est tout simplement pas possible avec la technologie actuelle : 70 MHz contiguës dans la même bande est difficile à obtenir, compte tenu du nombre d’opérateurs devant se partager le spectre et de la rareté des fréquences dans ledit spectre.

Finalement, la LTE-Advanced sera nécessaire pour atteindre les spécifications de la véritable 4G. Cette LTE-Advanced va apporter beaucoup de changements techniques pour augmenter les débits. Nous avons choisi de développer ici deux grandes améliorations qui s’appuient sur deux principes : augmenter l’efficacité spectrale et augmenter la largeur de bande disponible pour utilisateur.

Conclusion

Avec l’explosion de la consommation de données, le risque de congestion des réseaux 4G pourrait rapidement poser problème. L’idée est donc d’augmenter les capacités de la LTE, c’est-à-dire d’augmenter le débit par cellule pour augmenter le débit moyen par utilisateur et/ou le nombre d’utilisateurs.

L’arrivée de la LTE-Advanced

L’intérêt premier de la LTE-Advanced est de proposer des améliorations techniques permettant de garder une compatibilité ascendante tout en promettant des débits supérieurs au Gbps. Nous vous avons présenté deux d’entres elles : l’agrégation de porteuses et la technologie MIMO. L’avantage est que ces améliorations pourront se faire au fil des années afin d’absorber l’augmentation de la consommation de données, et ce, sans remettre en cause le réseau actuel. Des mises à jour en quelque sorte.

Finalement, la première étape du déploiement de la LTE-Advanced consistera à agréger les porteuses. En combinant seulement deux blocs de fréquences dans les deux bandes 800 MHz et 2600 MHz, Orange peut dès à présent proposer 225 Mbps, 190 Mbps chez SFR et Bouygues Télécom. Ensuite, le refarming des fréquences 2G permettra, à terme, de récupérer 20MHz pour les trois opérateurs historiques, Free Mobile pourrait alors obtenir 15 MHz. Ce qui, au final, permettra des débits maximaux théoriques par cellule de 375 Mbps pour Orange, 337Mbps pour SFR et Bouygues Télécom et enfin 262 Mbps pour Free Mobile. Viendra alors l’attribution de fréquences dans la bande des 700MHz (second dividende numérique).

L’agrégation de porteuses, une fois bien maîtrisée, permettra aux opérateurs de déployer un réseau de micro-cells, des cellules réseaux de petites couvertures (fréquences dans les 3,5GHz), mais dont les largeurs de bande pourraient dépasser les 20MHz, permettant ainsi d’obtenir des débits très élevés – les ressources spectrales sont plus abondantes dans les fréquences élevées. Le terminal garderait une connexion « support » dans les fréquences en or pour plus de stabilité, tout en profitant des débits élevés des micro-cells.

En parallèle, l’efficacité spectrale des réseaux pourrait être améliorée (quadruplée en fait), notamment grâce à la technologie MIMO qui multiplie le nombre d’antennes du côté relais et du côté terminal. Actuellement, l’efficacité spectrale est à 7,5 bits/s/Hz en réception. Les données théoriques concernant la LTE-Advanced promettent une efficacité spectrale de 30 bits/s/Hz ! Autrement dit, Orange et Free Mobile pourraient théoriquement proposer 600 Mbps grâce à leur bloc de 20 MHz dans la bande des 2600 MHz, un gain non négligeable. La connexion au niveau du bord des cellules devrait également être améliorée grâce à diverses techniques dont l’une permettra de combiner les signaux de chacune des antennes voisines pour augmenter le débit théorique.

Ce que l’on peut espérer au final

Avec l’ensemble des blocs actuellement à disposition des opérateurs, et en considérant le refarming 2G des fréquences 1800MHz, nous aurions au final grâce à la LTE-Advanced (sans micro-cells, ni second dividende) : 1500 Mbps pour Orange, 1350 Mbps pour SFR et Bouygues Telecom et enfin 1050 Mbps pour Free Mobile. Les micro-cells permettront sans doute d’ajouter 600 Mbps (blocs de 20 MHz), puis le second dividende devrait au minimum proposer 10MHz aux opérateurs les plus généreux, soit 300 Mbps. Avant que la 5G n’arrive, à partir de 2020, nous aurons sans doute dépassé les 2 Gbps.

Malheureusement, la technologie LTE-Advanced mettra du temps à être déployée. De plus, elle sera toujours la source d’une certaine fracture numérique, les grandes villes étant bien moins coûteuses à couvrir avec les dernières technologies. Dans l’ensemble, cette montée en débit sera bénéfique pour le consommateur. Non pas parce qu’individuellement le débit supplémentaire est vital, mais tout simplement parce que l’utilisation du réseau devrait être de plus en plus forte dans les années à venir avec l’avènement des objets connectés (en 4G), des voitures connectées, de la multiplications des smartphones, etc. Le réseau devrait donc évoluer très rapidement, au bonheur des plus technophiles : la LTE-Advanced comprend une multitude d’améliorations passionnantes, et là, nous ne parlons que des 5 ou 8 prochaines années…

Le projet ARA

Le projet Ara est un projet novateur visant à introduire la personnalisation et la modularité pour le marché des smartphones. Plutôt que les modèles actuels de téléphones hautement intégrés que nous avons, le projet Ara permet de mélanger et d’assortir des composants, de sorte que vous n’aurez plus besoin d’acheter un nouveau téléphone lorsque votre écran se brisera ou si vous voulez un plus grand espace de stockage interne.

Comme déjà évoqué, le Project Ara est un des projets développés au sein du Advanced Technology and Projects (ATAP), anciennement dans le giron de Motorola Mobility. Pour rappel, ce projet ambitieux a pour objectif de créer une plate-forme open-source pour smartphone. Sur une base appelée « endo »squelette, il sera possible d’ajouter des modules avec un système d’aimants. Ces modules pourront être un appareil photo, une batterie, un capteur, de la mémoire… afin de pouvoir personnaliser complètement son smartphone.

Quand est-ce que le premier smartphone Ara sera commercialisé ? Google prévoit de le commercialiser en 2015. Un place de marché permettra d’acheter ces « modules », de les échanger et différents outils faciliteront l’accès à cette technologie.

Quel sera le prix du smartphone Ara ? Google espère pouvoir concevoir un smartphone « entrée de gamme » pour 50 dollars (environ 35 euros). Le téléphone haut de gamme devrait coûter environ 500 dollars (370 euros). Il s’agit d’un coût de fabrication, il faut donc s’attendre à des appareils entre 100 et 700 euros, en fonction des modules choisis.

Quelles seront les tailles des téléphones Ara ? Google a prévu trois tailles différentes d’endosquelette, avec des écrans entre 3 et 6 pouces. Chaque appareil pourra recevoir un nombre de modules différents, tandis que certains modules ne fonctionneront qu’avec le grand « endosquelette ».

Comment fonctionnent les modules ? Les modules se connectent à l’endosquelette grâce à des aimants électro-permanents. L’impulsion magnétique permet d’activer les modules, qui pourront échanger des données jusqu’à 10 Gbs et avec une consommation jusqu’à 5 Watts. Les aimants n’ont pas besoin d’une charge constante pour maintenir une liaison. Les modules peuvent être créés par différents développeurs, grâce au MDK (Module Developers Kit).

Comment acheter des modules ? Google a prévu de lancer une place de marché où il sera possible d’acheter et commercialiser des modules, mais aussi de les échanger.

Les téléphones fonctionneront-ils sous Android ? Oui, Android est l’OS par défaut. Justement, Android devrait évoluer afin de permettre cette modularité. La dernière version, Android 4.4 KitKat, n’a pas été prévue pour être compatible avec un projet de ce type. Début 2015 sera dévoilé une version d’Android conçue pour supporter cette modularité.

Et le premier prototype ? Il a été présenté à la conférence, il ne possède pas d’aimants électro-permanents, mais des clips pour maintenir les modules en place. Le bus d’alimentation est également encore en cours d’élaboration. Il fonctionne grâce à une architecture OMAP (Texas Instrument). Vous remarquerez qu’il a un écran fissuré, « pas grave, il suffit de changer l’écran ».

Quelle est la durée de vie d’un téléphone Ara ? C’est une des problématiques du projet. Les téléphones du Projet Ara sont censés avoir une durée de vie de cinq à six ans – beaucoup plus que votre smartphone actuel. Le téléphone sera « évolutif », ce qui vous permettra de le maintenir à jour en changeant les modules.

Existera t-il un seul design ? Non, chaque module pourra avoir sa propre couleur et sa propre texture. Un module pourra également dépasser « le périmètre du téléphone ». D’ailleurs, un module pourra avoir plusieurs fonctionnalités. L’objectif étant de créer des milliers de combinaisons possibles. Si vous souhaitez un clavier physique, cela sera possible. Deux batteries, également possible. Un zoom optique. Vous pourrez certainement imprimer votre « design » avec de l’impression 3D.  Le Projet Ara travaille avec 3D Systems pour développer un nouveau type d’imprimante 3D qui est capable de réaliser de la production de masse personnalisées pour les modules.

Il sera sûrement possible de télécharger directement les pilotes des modules sur le Google Play. Google a beaucoup insisté sur la facilité d’utilisation de ces modules, afin de pouvoir s’adresser à tous les publics : Ara se veut un projet « intemporel grâce à la personnalisation », flexible, facile d’accès et réparable.

Les défis que doit surmonter ATAP sont redoutables mais surmontables. Depuis l’iPhone, la technologie mobile a migré inexorablement vers l’intégration. L’objectif étant de mettre le maximum de composants sur un seul circuit imprimé (ou même une seule puce). Cette intégration a permis d’économiser de la place, de la batterie, gagner en épaisseur, en coût et en poids. Néanmoins, cette intégration limite la durée de vie et la personnalisation de nos appareils.

Qu’est ce que Google essaye de faire ? Construire une industrie au sein d’une industrie. La firme californienne est obligée de pousser de nouveaux standards et de nouvelles technologies. Par exemple, le standard de communication appelé « UniPro » pour simplifier les communications entre chaque module.

La mission actuelle de l’équipe derrière Ara ? Agréger une masse critique de développeurs de modules pour créer un écosystème viable. Google veut créer un smartphone pour les 7 milliards d’humains, à la fois esthétique et fonctionnel.

Deux ans pour mettre en place un projet extrêmement ambitieux. Le challenge est énorme, il fait rêver.

Les téléphones en marque blanche

Quechua Phone, Qilive, Hi 4G, Ultym 4 : tous ces téléphones possèdent un point commun, ce sont des appareils en marque blanche. Cela signifie que ces téléphones ou tablette affichent une marque différente de celle de leur constructeur réel. En d’autres termes, des constructeurs de téléphones revendent certains de leurs terminaux à des marques qui désirent proposer des appareils mobiles. Auchan, Décathlon, Toy’r’us, mais aussi tous les opérateurs téléphoniques possèdent désormais chacun des téléphones ou des tablettes à leur nom.  Mais quelles marques se cachent derrière ces téléphones ? Et quel est l’intérêt pour les marques et pour les constructeurs d’utiliser des marques blanches ?

Un smartphone pas si cocorico que ça

Un smartphone pas si cocorico que ça

Marque Blanche : mode d’emploi

Prenons un exemple très concret pour illustrer le principe de la marque blanche. Voici le Bouygues Telecom BS 402 vendu « exclusivement » par Bouygues Telecom. Ce téléphone bon marché vendu moins de 120 euros sur la boutique B&You n’a pas été conçu ni construit par Bouygues Telecom. Il s’agit en fait d’un téléphone de la marque chinoise ZTE : le Blade Q Mini. Un terminal d’entrée de gamme au rapport qualité-prix très convenable et surtout désimlocké dès l’achat. Aujourd’hui, on ne retrouve pas moins de cinq téléphones en marque blanche dans la boutique en ligne de Bouygues Telecom, à des prix s’échelonnant de 119 à 229 euros.

BS-402-ZTE-Blade-Q-mini

Le ZTE Blade Q Mini ou BS 402. On ne retrouve aucune mention de la marque chinoise sur le téléphone.

Ces téléphones et tablettes en marques blanches ont tous les mêmes points communs quelle que soit la marque. Il s’agit toujours de téléphones chinois d’entrée de gamme qui ne possèdent presque jamais de surcouche logicielle. Tout juste disposent-ils de quelques applications « maison » installées par les marques, mais jamais rien de vraiment intrusif. Ces téléphones en marque blanche sont apparus assez récemment. S’ils étaient déjà présents sur le marché, ils ont proliféré quelques mois après l’arrivée de Free sur le marché des opérateurs mobiles. Ce n’est pas évidemment pas une coïncidence.

Quand Free Mobile est arrivé sur le marché des opérateurs, le prix des appels téléphoniques a drastiquement baissé. Cette baisse de prix a eu énormément de répercussions sur notre façon de consommer les téléphones portables. Non seulement les forfaits sans engagements se sont démocratisés, mais surtout l’achat d’un téléphone portable était enfin devenu possible sans passer par un forfait à plus de 35 euros par mois. L’open market, puisque c’est le nom donné à ce marché de téléphones nus et non subventionnés par des forfaits, était né. Il a permis à de nombreux revendeurs grand public d’entrer dans la danse.

Qui fait quoi ?

Ces revendeurs, ce sont des marques bien connues du grand public. Auchan, Carrefour, Toy’r’us, Decathlon mais aussi Orange, Bouygues Telecom ou SFR y vont tous de leur tablette ou téléphone maison. Nous avons fait le tour de leurs offres et tenté de savoir à quelle marques de constructeurs correspondaient leur téléphone. Trois gros acteurs chinois se partagent le marché : Huawei, ZTE et Alcatel One Touch.

Marque blanche Nom du modèle Marque réelle Prix vendus par les marques Prix vendus par les constructeurs Taille de l’écran Compatibilité réseau
Bouygues Telecom Bs 402 noir ZTE Blade Q Mini 119 € Introuvable 4 pouces 3G+
Bouygues Telecom Bs 451 noir Mobiwire Auriga 139 € Introuvable ? 4,5 pouces 3G+
Bouygues Telecom Ultym 4 Alcatel one Touch Idol S 229 € 239 € chez Darty
258 € chez CDiscount
179 € chez Free Mobile
5 pouces 4G
Orange Hi 4G ZTE Blade Apex 2 129,90 € chez Orange
119 € chez Sosh
Introuvable 4,5 pouces 4G
Sosh Le mobile Sosh Alcatel one Touch Idol Mini 99 € 159,90 € chez CDiscount
144,90 € chez Materiel.net
4,3 pouces 3G+
Android by SFR Startrail 4 ZTE Blade Q 109,99 € Introuvable 4,5 pouces 3G+
Android by SFR Staraddict III Coolpad 8861U 199,99 € Introuvable 4,5 pouces 4G
Android by SFR StarXtrem ZTE Grand Memo 329,99 € 356,99 € sur Amazon.fr
374,95 € chez Redcoon.fr
5,7 pouces 3G+
Android by SFR StarShine II Micromax ? 79,99 € Introuvable 3,5 pouces 3G+
Android by SFR StarTrail III ?? 129,99 € Introuvable 3,5 pouces 3G+
Android by SFR StarAddict II Plus ZTE Grand X Intel 189,99 € Introuvable 4,3 pouces 3G+
Quechua Quechua Phone Archos 229,90 € Introuvable 5 pouces 3G+
Auchan Qilive 4 Archos 40 Titanium 98,90 € 99.99 € sur le site officiel d’Archos 4 pouces 3G+
Auchan Qilive 4.5 Archos 45 Titanium 129 € 129,99 € sur le site officiel d’Archos 4,5 pouces 3G+
Auchan Qilive 5 Archos 50 Titanium 149 € 149,99 € sur le site officiel d’Archos 5 pouces 3G+
Auchan Qilive 5.3 Archos 53 Platinum 199 € 195,99 € sur Amazon 5,3 pouces 3G+
Carrefour Smart 5 Hisense HS-U970 179 € 162,77 € sur Amazon 5 pouces 3G+
Boulanger Essentiel B Diamond 2 Coolpad ? 149 € Introuvable 4,3 pouces 3G+
Boulanger Essentiel B Connect 4.7 Coolpad ? 179,90 € Introuvable 4,7 pouces 3G+
Boulanger Essentiel B Connect 5.3 Coolpad ? 199 € Introuvable 5,3 pouces 3G+

Comme vous pouvez le constater dans ce tableau, la grande majorité de ces téléphones sont des appareils d’entrée de gamme dont le prix excède très rarement les 300 euros. À l’exception des quelques terminaux compatibles 4G, tous possèdent des SoC MediaTek et tournent donc tous pratiquement sous Android 4.2.2. Avec la récente décision de MediaTek de supporter Android 4.4.2 KitKat sur ses puces, ils devraient théoriquement pouvoir passer à Android 4.4.2, mais rien ne dit que les opérateurs et les constructeurs réalisent la mise à jour. Il est plus probable que ces téléphones soient remplacés d’ici quelques mois.

On notera également que la majorité de ces téléphones a beau être d’origine chinoise, les téléphones proposés par les opérateurs sont systématiquement doté d’un unique port SIM tandis que les grandes enseignes commerciales ne se gênent pas pour proposer des téléphones double SIM.

Smartphones Qilive

Les téléphones Qilive de Auchan sont fabriqués par Archos. Ce sont aussi des téléphones dotés de deux ports carte SIM.

Le cheval de Troie des constructeurs chinois

Si ces appareils en marques blanches sont présents partout, c’est que tout le monde y trouve son compte. Du côté des constructeurs chinois, les marques blanches sont un excellent moyen de s’inviter sur les marchés occidentaux. Pour une entreprise chinoise dont le chiffre d’affaires se fait majoritairement en Asie, il est compliqué de venir s’imposer sur les marchés européens et américains. Pour beaucoup de raisons.

Le marché est déjà occupé par des constructeurs plus connus et déjà présent sur ces territoires depuis plus longtemps qu’eux. Apple, Samsung, LG, Blackberry et Nokia occupent actuellement plus de 90 % du marché des smartphones. Ces constructeurs, souvent présents depuis plus de dix ans, sont aussi des spécialistes de l’électronique grand public et se sont internationalisés bien plus tôt que ces nouveaux arrivants. Ils connaissent donc bien mieux les marchés occidentaux, que ce soit en termes d’attentes du consommateur, de communication ou de réseau de distribution. Ils ne voient donc pas d’un bon œil de nouveaux arrivant entrer sur le marché et, pire, casser les prix avec des téléphones bon marchés dans un environnement économique déjà très disputé.

orange-hi-4g-noir

Le Hi 4G de Orange est l’un des rares téléphones 4G a être vendu moins de 150 euros. Il s’agit en fait d’un Blade Apex 2 de ZTE.

De fait, il n’est pas simple pour une entreprise chinoise de s’implanter sur le territoire français. Les distributeurs n’acceptent pas, ou difficilement, de rogner leurs margespour vendre des téléphones chinois parfois équivalent en termes de performance avec ceux des grandes marques. Les normes de sécurités sont très différentes d’un continent à l’autre et les frais de communication (publicité, mise en avant dans les magasins, relation presse) qu’il faudrait engager pour se faire connaître seraient faramineux.

Ces entreprises chinoises ont toutefois un argument de poids à faire valoir : le prix de leurs téléphones. Leurs tarifs sont beaucoup moins élevés que ceux de Samsung, Apple ou Nokia. Ces prix bas, ils ne les proposent pas directement aux consommateurs (même si en fouillant bien sur des sites de e-commerce, il est possible d’acheter directement ces terminaux nus), mais ils les proposent à des marques déjà connues. Non seulement cela leur permet d’écouler des téléphones sur des marchés occidentaux sans avoir à déployer une filiale sur un territoire précis, mais en plus ils peuvent commencer à grignoter des parts de marché sans débourser de sommes folles. La contrepartie, naturellement, c’est que leur marque en propre n’est pas mise en avant. Peu importe, finalement, les marques blanches ne sont qu’un moyen – un cheval de Troie – de grignoter peu à peu des parts de marché. Avec le temps et le développement de l’open market les consommateurs apprendront à repérer leurs téléphones. Le pari n’est pas gagné, mais les firmes chinoises ont le temps.

Rassurer et fidéliser le client

Pour les marques qui utilisent ces téléphones chinois, l’avantage paraît plus évident. Elles proposent à leurs clients des appareils à leurs couleurs. Les bénéfices sont nombreux. D’abord et surtout, le fait de trouver une marque grand public apposée sur un téléphone rassure à la fois le client et le vendeur. C’est la garantie pour le consommateur de se retrouver avec un produit qui présente un rapport qualité/prix convenable, pour ne pas dire supérieur à un autre appareil d’entrée de gamme d’une marque inconnue, et l’assurance de ne pas avoir un mauvais produit dans les mains. Le fait est que si l’on propose à un client classique (entendez par là pas aussi technophile que peut être le lectorat de FrAndroid) deux téléphones chinois identiques mais dont l’un est aux couleurs de Bouygues Telecom et l’autre affichant la marque ZTE, il y a de grandes chances pour que ce client aille plus spontanément vers le téléphone Bouygues. Le lien de confiance entre une marque donnée et son client régulier joue beaucoup, et accentue en plus sur sa fidélité.

L’aspect économique est également à prendre en compte. Lorsque Bouygues Telecom a commencer à déployer la 4G en France, l’opérateur s’est rendu compte qu’il existait peu de téléphones compatibles 4G à des prix abordables. Difficile dans ce cas de la rendre accessible au plus grand nombre alors que l’opérateur débourse des sommes considérables dans son réseau pour offrir une couverture 4G honorable. Bouygues Telecom a alors entamé des discussion avec Alcatel One Touch pour sortir un téléphone 4G bon marché capable de satisfaire des clients qui n’avaient pas les moyens de se payer un appareil à plus de 400 euros. Dans les faits, ils ont simplement rebrandé le Alcatel One Touch Idol S et l’ont renommé Ultym 4. Résultat : un téléphone 4G tout à fait convenable à moins de 230 euros. Certes, il tourne sous Android 4.2.2, mais il n’existe pratiquement pas d’offres alternatives à ce prix. Orange et SFR ont d’ailleurs eu exactement la même démarche en proposant chacun le Hi 4G (ZTE Blade Apex 2) ou Staraddict III (Coolpad 8861U), tous deux compatibles avec la 4G.

Bouygues-Telecom-Ultym-4-Noir

Le Bouygues Telecom Ultym 4 ou Alcatel one Touche Idol S

Gilles Guillemot, le responsable marketing terminaux de Bouygues Telecom a confirmé que Bouygues et les constructeurs chinois travaillent désormais en étroite relation. Bouygues Telecom entre en contact avec des constructeurs chinois et leur soumet un cahier des charges précis. Si Bouygues a besoin d’un téléphone avec une technologie particulière (la 4G, par exemple), un prix a ne pas dépasser ou un design précis (pas moins de 4,5 pouces), la société entame des discussions avec les constructeurs 9 ou 12 mois avant la sortie du téléphone et signe un contrat de production 6 mois avant la sortie prévue. Bouygues s’engage alors à prendre un certain nombre de millier de pièces, voire plus en fonction de la durée de l’offre qu’il compte faire avec le téléphone. Généralement, les téléphones en marques blanches sont disponibles en boutique entre 6 mois et 1 an avant d’être remplacés par d’autres téléphones plus récents. Là encore nous parlons de Bouygues Telecom, mais toutes les marques citées plus haut utilisent les mêmes pratiques commerciales.

Et si l’on en croit toujours Gilles Guillemot, ces téléphones se vendent bien. Nous n’avons pas de chiffres précis mais ils représentent aujourd’hui « entre 10 et 30 % de part de marché » européen. Une estimation corroborée plus ou moins par un porte-parole d’Orange qui déclarait au micro de ZDNet l’année dernière que 20 % des téléphones vendus en Europe étaient des terminaux en marque blanche. Un chiffre à nuancer, puisque en Europe les marchés et les économies sont très différentes d’un pays à l’autre. Mais avec la crise économique, il ne fait aucun de doute que ces appareils sont amenés à prospérer. Pour autant, il est peu probable qu’en tant qu’Européens nous ayons tous des téléphones chinois dans les mains d’ici les trois prochaines années. Les marques blanches ne sont finalement (en France tout du moins) qu’un aspect du développement de l’open market. Aujourd’hui, le marché du téléphone nu représente 30 % des ventes de mobiles en France et continue de progresser. Ce qui est sûr, c’est que l’on va de plus en plus acheter des téléphones nus et que cette tendance profitera forcément aux terminaux chinois.

Les entreprises toulousaines

Tic Valley 

Une initiative unique menée par des entrepreneurs, pour des entrepreneurs.

La TIC Valley est une association qui regroupe 23 startups et PME innovantes à différents stades de leur développement.
Elle aide ses membres à créer des success-stories en les rassemblant dans un même lieu et en dynamisant le partage, la mutualisation et les échanges entre eux.
L’association se donne pour missions de développer l’excellence et la productivité dans les TIC et d’être le catalyseur du développement des startups et PME régionales.
La TIC Valley, c’est aussi une véritable communauté qui fédère 330 membres autour de valeurs et d’ambitions communes (Innovation, pragmatisme, esprit startup et partage).

La TIC Valley est installée, dans le bâtiment E-volution, situé à Labège.

Ce lieu de 5000 m2, bâtit sur un tryptique technologie, art et sport, offre à ses occupants un environnement de travail ludique et agréable propice aux échanges (notamment de compétences et savoir-faire) et à la créativité.

La quasi totalité des entreprises membres de l’association sont installées dans le bâtiment avec pour objectifs :

Créer – Échanger – Mutualiser.

L’architecture et les aménagements spécifiques d’E-volution permet à la TIC Valley : d’asseoir sa dynamique, de développer sa communauté et de faciliter les échanges entre ses start-up membres.
Inventeur du contrôle d’accès numérique,  Axible Technologies conçoit et commercialise des solutions d’ouverture et de contrôle d’accès connectées. 

Calendeev vous permet de découvrir autour de vous des événements et sorties en accord avec vos centres d’intérêts, comme des concerts, des spectacles, des expositions et des sorties en famille ou avec vos amis.

CityMeo propose une solution d’affichage dynamique clé en main basée sur un player compact et une interface web permettant la création et diffusion instantanée de ses communications.
Spécialiste de l’intégration du réseau de transmission de données opéré par Sigfox, Connit maîtrise les différentes étapes nécessaires à la mise en exploitation d’une solution (production du matériel, serveurs, applicatifs, réseau et services)
Datarmine est une extension gratuite qui vous permet d’utiliser n’importe quel réseau social sans crainte pour votre vie privée.
Datasio propose des services et outils innovants en traitement de données massives. Cette société fournit des études et solutions logicielles dites « Big Data », dédiées à la fouille assistée de données, à l’extraction d’information et à la surveillance de systèmes.
Fiduceo propose des solutions logicielles permettant de simplifier la gestion de la vie administrative et financière des particuliers, ainsi que des professionnels. Fiduceo est aussi l’éditeur de deux apps web et mobiles : MoneyDoc et eFactures.
France-Pari est à la fois un éditeur de plateformes de paris en ligne, multi sports et multi-supports, mais aussi un des plus anciens opérateurs de paris sportifs et hippiques en ligne en France.
GAC Group est une organisation internationale spécialisée en financement de l’innovation et en optimisation de la performance financière des entreprises.
Editeur de logiciels, GVS développe une plateforme collaborative sécurisée d’hypervision à destination des industriels. Cette plateforme concentre les systèmes d’information de l’entreprise, les interconnecte et les rend accessibles à tous grâce à des IHM innovantes.
GlobeWhere est un concepteur de voyages sur mesure indispensable qui vous permet d’avoir un unique interlocuteur pour composer vos voyages. Présent en ligne et sur mobile, il permet de tout organiser dans les moindres détails, le plus simplement possible.
Intesens propose des capteurs sans fil de télédiagnostic d’équipements industriels. L’utilisateur est en mesure de surveiller à distance au travers d’une plateforme web l’état de santé de ses équipements. Il est alerté en cas de défauts électriques, vibratoires ou thermiques.
Plateforme logicielle pour la gestion intelligente de bâtiment. iQSpot rend les bâtiments qui vous entourent plus intelligents en proposant des services innovants aux occupants et en inter-connectant tout son écosystème : capteurs, actionneurs, afficheurs et occupants.
MeetMyDesigner est une plateforme communautaire unique, permettant de découvrir et de financer les créateurs de mode de demain. Son objectif est de rapprocher les communautés de fans et les créateurs.
Mobirider, c’est le premier app store physique du point de vente. Un objet design et élégant pour une découverte magique de l’actu de vos marques et boutiques favorites : une app mobile, une video, une nouveauté produit. 
Newsvibes est un lecteur de news personnalisées pour le web, smartphones et tablettes. Il permet de suivre ses actualités préférées et d’en découvrir d’autres à travers une expérience entièrement personnalisée, les news proposées sont adaptées au fur et à mesure des choix et des habitudes de lecture.
PCB utilise les technologies de l’information et de la communication pour mettre en oeuvre des stratégies innovantes d’accès aux marchés.
Leur savoir faire : être capables de capter, puis de monétiser, des communautés de dimensions internationales, en optimisant à la fois le temps et les coûts nécessaires.
PICK-AND-GO fournit à l’ensemble des Supply Chain industrielles, notamment alimentaires et GMS, un service complet de location logistique de palettes en PEHD recyclé. Le service PICK-AND-GO, seule alternative économique au pooling de palettes bois, est enrichi par un service de localisation (et de suivi de T°C) des palettes sur sites, au travers d’émetteurs embarqués, reliés au réseau SIGFOX, premier réseau dédié au M2M.
PoleStar est le leader de la géolocalisation indoor. Avec 10 ans d’expérience terrain et plus de 4 millions de m2 couverts dans le monde par le service NAO Campus®, Pole Star est aujourd’hui reconnu comme le fournisseur incontournable de solutions de géolocalisation à l’intérieur des bâtiments.
Scoop.it est une plateforme de publication par curation. Utilisé en veille, community management ou marketing et communication, Scoop.it permet aux entreprises d’augmenter efficacement leur visibilité et réputation sur le web. 
SIGFOX est le premier opérateur cellulaire bas débit dédié au M2M et à l’Internet des objets. Grâce à sa technologie de communication sans-fil UNB, SIGFOX offre un service de transmission de données bas coût entièrement dédié aux applications bas-débit dites ‘machine-to-machine’ et à l’Internet des Objets.
Ubigreen développe et commercialise une solution innovante de pilotage de la performance énergétique et environnementale à destination des bâtiments tertiaires, collectivités et industriels. Elle s’appuie notamment sur des réseaux de capteurs sans fil et permet à ses clients de cibler des économies rapides.
UBLEAM, société développant une technologie innovante de tag 3D pour le marketing mobile. Inséré sur les produits des marques sous forme de logo ou de visuel, ce tag (appelé bleam) donne accès à tout type de services en le scannant sur smartphone.
Startup dédiée au développement d’applications SaaS – service web dans deux domaines privilégiés : la collaboration « agile » et l’e-santé. Vigisys édite Ubixr.com (réseau social collaboratif basé sur un jeu de cartes virtuelles), Dazib.com (le « Lego du web », constructeur de one page / landing page basé sur un jeu de bloks) et développe les projets Indesir.fr et Vigidiab.fr
WiSEED ouvre l’accès à une nouvelle classe d’investissements jusqu’ici réservée aux investisseurs professionnels et aux business-angels : les jeunes entreprises innovantes. Devenez actionnaire des plus belles startups françaises à partir de 100 € !
Réalisation d’études, conseil en export, montage de projets R&D européens. Expertise dans les applications spatiales et TIC.